Nvidia G-Sync: Experimenteller Treiber löst Verwirrung aus

AW: Nvidia G-Sync: Experimenteller Treiber löst Verwirrung aus

Also ich verstehe das so:

Adaptive Sync ist schon seit längerem im eDP-Standard festgelegt. Notebooks, die diesen Standard unterstützen, beherrschen dementsprechend auch G-Sync ohne Modul (zumindest mit dem angepassten Treiber).
Im externen DP-Standard war A-Sync afaik bisher nicht vorgesehen, weshalb nvidia eigene Scaler entwickelt hat, um A-Sync oder etwas ähnliches (!) in schwer durchschaubarer Form auf den Desktop zu bringen.
Dass ein sogenanntes G-Sync jetzt auf den besagten eDP-Notebooks ohne nvidia-Chip funktionert hat imho erstmal nichts mit den Desktop-Monitoren zu tun. Notebooks bieten ganz andere Voraussetzungen als externe Monitore.

Kann gut sein, dass es so ist. Aber wenn die Monitor-Hersteller das im Prinzip auch selber können (wie man ja an den Notebook-Panels sieht), wieso sollten sie dann für ihre Desktop-Monitore extra eine Platine hinzukaufen, die exklusiv von Nvidia hergestellt wird, und dafür noch Lizenzgebühren zahlen? Dann könnten sie es doch stattdessen alleine realisieren... Was sie ja mit FreeSync offensichtlich getan haben, wo keine Zusatzplatine eines Drittherstellers verbaut wird :) So richtig schlüssig ist das ganze für mich noch nicht.
 
AW: Nvidia G-Sync: Experimenteller Treiber löst Verwirrung aus

Ich habe nur die geforderte Quelle geliefert. Was das Freesync angeht wäre ich auch froh wenn es von beiden unterstützt wird. Mir ist es dabei sch...egal wie sie es im Endeffekt benennen.

Aber ihr könnt euch sicher sein, wenn die beiden nicht abkassieren, dann tuen es die Monitorhersteller. Irgendjemand will sich mit der Technologie sicher eine goldene Nase verdienen.

Da es bisher keine Vesa-Monitore mit der entsprechenden Technik gab, war das G-Sync Modul bisher nötig wenn man dieses Feature nutzen wollte. Wo liegt also hier der Betrug, nach dem jetzt wieder alle schreien?

Nur weil sie erst sagen, dass sie Freesync nicht unterstützen wollen?
Das spielt doch nur AMD in die Tasche. Sie haben dann die Chance Karten anzubieten, die für geringere Kosten das gleiche Ergebnis erzielen. Damit würde sie ja mehr Karten absetzen als NVidia.
Wundert es da einen, dass NVidia in die selbe Richtung forscht?

Die einzig "Betrogenen" sind doch nur die absoluten NVidia-Fanboys, die es nicht abwarten können jede Technik sofort zu adaptieren. Und selbst diese sollten gehört haben, dass AMD schon einige Zeit lang an einer ähnlichen Technik arbeitet.

Jeder kann selbst entscheiden, welche Technik er einsetzt. Und mir tut keiner Leid, der unbedingt meint dies kaufen zu müssen, weil er aus verblendeter Sicht die Konkurrenz für unfähig hält.

Wie gut dass wir immer noch selbst entscheiden können für was wir unser Geld ausgeben ... unabhängig von irgendwelchen Firmenfarben.
 
AW: Nvidia G-Sync: Experimenteller Treiber löst Verwirrung aus

Asus G751 konnte PC Perspective den Treiber erfolgreich verwenden.
Halt halt halt. Also laut "LinusTechTips" , die direkt mit den Leuten von PCPerspective in Verbindung stehen, konnte man mit dem Treiber auf dem entsprechenden Notebook zwar GSync aktivieren, aber es käme zu Bildausfällen etc. Es konnte also aktiviert werden und lief auch in der Nvidia Clock Demo, aber ist noch weit entfernt vom Release Stadium.
Weitere Infos gibt es hier:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
AW: Nvidia G-Sync: Experimenteller Treiber löst Verwirrung aus

Es ist ziemlich unfair, bei so einer Tech-Preview im Beta-Stadium irgendwelche Ruckler zu monieren

Das Problem liegt ja nicht direkt an der Implementierung. Wenn man unter eine gewisse fps grenze kommt muss der Monitor das aktuelle Bild sehr sehr lange erhalten bis das nächste kommt.
Und genau das ist eben nichtmehr möglich wenn man in sehr niedrige Regionen kommt !

Was man Treiberseitig machen könnte wäre Bilder doppelt an den Monitor zu senden - nur kommt man dann evtl aus dem Tritt und damit ein wirklich neues Bild auch rechtzeitig dargestellt wird müsste man das neue sofort darstellen -> Tearing.

Und ich weiß nicht ob man sowas implementieren sollte - mein Bauchgefühl sagt nein ! Lieber unter 30fps flackern und dafür ein tolles Erlebnis darüber als ein gutes Bild unter 30 und ein schlechtes darüber...
 
AW: Nvidia G-Sync: Experimenteller Treiber löst Verwirrung aus

Kann gut sein, dass es so ist. Aber wenn die Monitor-Hersteller das im Prinzip auch selber können (wie man ja an den Notebook-Panels sieht), wieso sollten sie dann für ihre Desktop-Monitore extra eine Platine hinzukaufen, die exklusiv von Nvidia hergestellt wird, und dafür noch Lizenzgebühren zahlen? Dann könnten sie es doch stattdessen alleine realisieren... Was sie ja mit FreeSync offensichtlich getan haben, wo keine Zusatzplatine eines Drittherstellers verbaut wird :) So richtig schlüssig ist das ganze für mich noch nicht.

2 Gründe: Der DP 1.2a Standard existiert zu diesem Zeitpunkt noch nicht. Ein Monitor-Hersteller hätte sein "eigenes" Ding machen müssen (und wenn es einfach die Adaption von eDP auf DP gewesen wäre) ohne Gewissheit, dass das so später zum Standard wird und ohne Gewissheit, dass das eine Grafikkarte irgendwann mal wirklich unterstützen würde. D.h. evtl. steckt man arbeit in die Entwicklung eines Produkts, das später von der VESA anders standardisiert wird.
Punkt 2: Nvidia's Chip war schon da. Nicht vergessen, das erst Nvidia den Chip vorgestellt hat und dann AMD mit FreeSync und nochmal später die VESA mit DP1.2a kam. Sowas zu entwickeln und zu produzieren kostet halt Zeit. Deswegen gibt es jetzt schon G-Sync Monitore aber eben noch keine FreeSync Monitore zu kaufen.
 
AW: Nvidia G-Sync: Experimenteller Treiber löst Verwirrung aus

Seit der GTX 970 traue ich NVIDIA alles zu- klingt zwar seltsam - ist aber so.

Ich finde alleine die Effekte Umrechnung von nVidias Speicher sehr.... fragwürdig.
"7GHz Leistung" oder wie viel es ist, dazu dann noch die Color Compression addieren und schwupps biste bei 9GHz.
Ich weiß zwar nicht mehr wo genau ich das gelesen hatte, aber dass finde ich auch nicht wirklich richtig.
Aber das ist ja ein anderes Thema :D
 
AW: Nvidia G-Sync: Experimenteller Treiber löst Verwirrung aus

Aber wenn die Monitor-Hersteller das im Prinzip auch selber können (wie man ja an den Notebook-Panels sieht), wieso sollten sie dann für ihre Desktop-Monitore extra eine Platine hinzukaufen, die exklusiv von Nvidia hergestellt wird, und dafür noch Lizenzgebühren zahlen?
Die Lizenzgebühr zahlt am Ende nicht der Monitorhersteller.
 
AW: Nvidia G-Sync: Experimenteller Treiber löst Verwirrung aus

Oben drauf kommt noch, dass nvidia ein FPGA (sündhaft teuer) auf dem Modul verbaut hat. Und durch die Exklusivität konnten sie die Preise auch schön hoch ansetzen.
Dass AMD und VESA dann einen Standard brachten, der den Herstellern ermöglicht, eine ähnliche Lösung ohne Lizenzgebühren umzusetzen, mit Aussicht auf weitere Verbreitung und der Produktion in eigener Hand (Stichwort ASICs), war ganz sicher nicht gewollt seitens nv.
 
AW: Nvidia G-Sync: Experimenteller Treiber löst Verwirrung aus

2 Gründe: Der DP 1.2a Standard existiert zu diesem Zeitpunkt noch nicht. Ein Monitor-Hersteller hätte sein "eigenes" Ding machen müssen (und wenn es einfach die Adaption von eDP auf DP gewesen wäre) ohne Gewissheit, dass das so später zum Standard wird und ohne Gewissheit, dass das eine Grafikkarte irgendwann mal wirklich unterstützen würde. D.h. evtl. steckt man arbeit in die Entwicklung eines Produkts, das später von der VESA anders standardisiert wird.
Punkt 2: Nvidia's Chip war schon da. Nicht vergessen, das erst Nvidia den Chip vorgestellt hat und dann AMD mit FreeSync und nochmal später die VESA mit DP1.2a kam. Sowas zu entwickeln und zu produzieren kostet halt Zeit. Deswegen gibt es jetzt schon G-Sync Monitore aber eben noch keine FreeSync Monitore zu kaufen.

Argument Zwei ist so nicht ganz korrekt. Als Nvidia erste öffentliche Kommentare in der Richtung getätigt hat, dass sie was mit adaptiver Framerate machen werden, war es schon viele Monate her, dass AMD im VESA-Gremium vorgeschlagen hat, den FreeSync-Standard in die neue VESA-Spezifikation aufzunehmen. Die Treffen dieses Gremiums sind nichtöffentlich, aber da Nvidia auch dort vertreten ist, saßen sie dort dabei und haben das vernommen.

Völlig korrekt ist es, dass G-Sync deutlich vor FreeSync auf den Markt kam, weil Nvidia echt auf's Tempo gedrückt hat (z.B. haben sie zu Beginn das Zusatzmodul mit einem exotischen und teuren FPGA aufgebaut, um nicht erst auf die Entwicklung eines ASICs warten zu müssen). Aber deine Reihenfolge oben "Erst kam GSync, dann kam AMD mit FreeSync, und nochmal später kam die VESA" ist einfach Quatsch. AMD hat der VESA vorgeschlagen, dieses Feature in den Standard aufzunehmen (insofern kam AMD und die VESA gleichzeitig). Ob Nvidia vor oder nach dieser Sitzung des Gremiums die Arbeit an G-Sync aufgenommen hat, ist nicht bekannt. Der Zeitdruck von Nvidia (--> FPGA) legt aber nahe, dass sie erst durch diese Sitzung auf die Idee kamen, etwas eigenes zu entwickeln. Das ging dann sehr schnell von statten, weil nicht erst ein ganzes aufgeblähtes VESA-Gremium monatelang darüber beraten/abstimmen musste...

Am Ende ist die genaue Reihenfolge aber auch nicht so wichtig. Wichtig ist, dass die Mehrzahl der Gamer davon profitieren wird, und danach sieht es ja zur Zeit aus :daumen:
 
AW: Nvidia G-Sync: Experimenteller Treiber löst Verwirrung aus

Hmm, wenn das wirklich so ist, wie Du sagst, umso schlimmer. Dann betreibt nvidia mal wieder gezielt Marktfragmentierung. Kann man ja machen, wenn man den größten Marktanteil im Gaming-Bereich hat. Für mich aber ein weiterer Grund, den Laden nicht zu unterstützen.

EDIT: Obiges bitte gedanklich in den Konjunktiv setzen.

Halten wir fest: das G-Sync-Modul erfüllt bei Desktop-Monitoren höchstwahrscheinlich durchaus eine Funktion, nämlich die, die DP1.2a+-Konforme Scaler inzwischen auch bereitstellen - Adaptive Sync. In Notebooks mit eDP ist ein solcher Zusatzchip nicht nötig, da eDP diese Funktion schon hat, deshalb wäre es technisch komplett unnötig, einen extra-Chip einzubauen.

Jetzt liegt es in den Händen von AMD und Nvidia, ihre Treiber dahingehend zu erweitern, dass diese Funktionen auch ausgenutzt werden. Wie es aussieht, hat Nvidia vor, auf Notebooks den vorhandenen Standard zu verwenden und im Desktop-Bereich ihren eigenen, um "das beste Erlebnis zu bieten" -> Lizenzgebühren, die Möglichkeit, zusätzliche Features zu diktieren etc.
 
Zuletzt bearbeitet:
AW: Nvidia G-Sync: Experimenteller Treiber löst Verwirrung aus

Punkt 2: Nvidia's Chip war schon da. Nicht vergessen, das erst Nvidia den Chip vorgestellt hat und dann AMD mit FreeSync und nochmal später die VESA mit DP1.2a kam. Sowas zu entwickeln und zu produzieren kostet halt Zeit. Deswegen gibt es jetzt schon G-Sync Monitore aber eben noch keine FreeSync Monitore zu kaufen.

Das ist nicht Nvidias Chip oder eine besondere Art von Chip extra für Nvidia produziert. Es ist ein FPGA der frei programmiert werden kann, nicht mehr (daher auch so teuer).


Der Verdacht liegt nahe, dass man vor allen anderen mit Gsync auf dem Markt sein wollten, da es aber noch keinen passenden Standard gab (Async) hat man es eben durch ein Modul realisiert. Nvidia hat wohl nicht damit gerechnet, dass der Vesa Standard so schnell kommt.

Edit: Knister ist eindeutig zu schnell :D
 
Zuletzt bearbeitet:
AW: Nvidia G-Sync: Experimenteller Treiber löst Verwirrung aus

Argument Zwei ist so nicht ganz korrekt. Als Nvidia erste öffentliche Kommentare in der Richtung getätigt hat, dass sie was mit adaptiver Framerate machen werden, war es schon viele Monate her, dass AMD im VESA-Gremium vorgeschlagen hat, den FreeSync-Standard in die neue VESA-Spezifikation aufzunehmen. Die Treffen dieses Gremiums sind nichtöffentlich, aber da Nvidia auch dort vertreten ist, saßen sie dort dabei und haben das vernommen.

Völlig korrekt ist es, dass G-Sync deutlich vor FreeSync auf den Markt kam, weil Nvidia echt auf's Tempo gedrückt hat (z.B. haben sie zu Beginn das Zusatzmodul mit einem exotischen und teuren FPGA aufgebaut, um nicht erst auf die Entwicklung eines ASICs warten zu müssen). Aber deine Reihenfolge oben "Erst kam GSync, dann kam AMD mit FreeSync, und nochmal später kam die VESA" ist einfach Quatsch. AMD hat der VESA vorgeschlagen, dieses Feature in den Standard aufzunehmen (insofern kam AMD und die VESA gleichzeitig). Ob Nvidia vor oder nach dieser Sitzung des Gremiums die Arbeit an G-Sync aufgenommen hat, ist nicht bekannt. Der Zeitdruck von Nvidia (--> FPGA) legt aber nahe, dass sie erst durch diese Sitzung auf die Idee kamen, etwas eigenes zu entwickeln. Das ging dann sehr schnell von statten, weil nicht erst ein ganzes aufgeblähtes VESA-Gremium monatelang darüber beraten/abstimmen musste...

Am Ende ist die genaue Reihenfolge aber auch nicht so wichtig. Wichtig ist, dass die Mehrzahl der Gamer davon profitieren wird, und danach sieht es ja zur Zeit aus :daumen:

Vielen Dank für die Korrektur, das war mir bisher nicht bekannt. Aufgrund der Reihenfolge der medialen Berichterstattung hatte ich das irgendwie anders im Gedächtnis. Aber interessant zu wissen, das es wohl anders war.

Angeblich soll Nvidia aber bereits seid 3 Jahren daran gearbeitet haben und den FPGA genutzt haben, weil sie selbst nicht so den Plan von der Materie hatten und bspw. Asus bei der Implementation Nvidia gelegentlich auf Fehler hingewiesen hat. Nen eigenen ASIC zu entwickeln ist halt doof, wenn immer wieder Fehler reklamiert werden. Da bietet sich ein FPGA einfach an. In wie fern diese Punkte stimmen sei dahin gestellt, dem Wahrheitsgehalt von Nvidia's Aussagen kann man momentan doch eher anzweifeln. ;) Wichtig ist: AdaptivSync muss auch von der Grafikkarte unterstützt werden. Ein Monitorhersteller der eine eigene AdaptivSync Technologie veröffentlicht müsste dann sich einen GK-Hersteller suchen, der diese Adaptiv-Sync-Implementation auch unterstützt. Von daher war es schon sinnvoll hier den Chip von Nvidia zu verbauen, wenn bisher noch kein genauer Standard definiert war.

Meiner Meinung kann man Nvidia bei der Einführung von G-Sync mit eigenem Modul nichts vorwerfen... Interessant ist es nur für die Zukunft und der Frage in wie weit Nvidia AdaptivSync vom DP1.2a unterstützen wird.
 
AW: Nvidia G-Sync: Experimenteller Treiber löst Verwirrung aus

Wie sieht das ganze eigentlich bei normalen Monitoren aus, die nur DP 1.2 haben? Haben diese immer nicht den benötigen Scaler eingebaut, oder kommt es auf den Hersteller an? Wäre ja wirklich interessant, wenn man mit einem "älteren" Modell(2013) G-Sync und Freesync nutzen kann.
 
AW: Nvidia G-Sync: Experimenteller Treiber löst Verwirrung aus

Das ist nicht Nvidias Chip oder eine besondere Art von Chip extra für Nvidia produziert. Es ist ein FPGA der frei programmiert werden kann, nicht mehr (daher auch so teuer).

Stimme deinem Post im Großen und Ganzen zu. Nur eine Kleinigkeit: Es war nur zu Beginn ein FPGA. Zeitgleich wurde die Produktion eines ASICs in Auftrag gegeben, der einige Monate später dann auch fertig war. Heute ist da kein FPGA mehr drauf, heute ist das ein normaler in Serie gefertigter Schaltkreis.

Merkt man z.B. daran, dass allein der FPGA im Werkszustand mehrere hundert Euro gekostet hat! Der Preisaufschlag für G-Sync-Monitore ist wesentlich geringer. Das hätten sie mit diesem FPGA gar nicht geschafft.

Wie sieht das ganze eigentlich bei normalen Monitoren aus, die nur DP 1.2 haben? Haben diese immer nicht den benötigen Scaler eingebaut, oder kommt es auf den Hersteller an? Wäre ja wirklich interessant, wenn man mit einem "älteren" Modell(2013) G-Sync und Freesync nutzen kann.

Im Detail weiß das sicherlich nur der Hersteller selbst. Ich würde aber potentiell sagen: Wenn der Hersteller nicht inzwischen groß Werbung damit macht, dass sein (alter) Monitor bereits voll FreeSync-Kompatibel ist, dann wird es wohl auch nicht so sein :D Ein besseres Verkaufsargument für (bereits etwas ältere) Monitore gäbe es ja fast gar nicht...
 
AW: Nvidia G-Sync: Experimenteller Treiber löst Verwirrung aus

Wie sieht das ganze eigentlich bei normalen Monitoren aus, die nur DP 1.2 haben? Haben diese immer nicht den benötigen Scaler eingebaut, oder kommt es auf den Hersteller an? Wäre ja wirklich interessant, wenn man mit einem "älteren" Modell(2013) G-Sync und Freesync nutzen kann.
Alle Monitore bis DP 1.2 sind nicht G-/A-Sync fähig mangels passendem Scaler. Erst Monitore ab DP 1.2a können das.
 
AW: Nvidia G-Sync: Experimenteller Treiber löst Verwirrung aus

Das ist nicht Nvidias Chip oder eine besondere Art von Chip extra für Nvidia produziert. Es ist ein FPGA der frei programmiert werden kann, nicht mehr (daher auch so teuer).


Der Verdacht liegt nahe, dass man vor allen anderen mit Gsync auf dem Markt sein wollten, da abes aber noch keinen passenden Standard gab (Async) hat man es eben durch ein Modul realisiert. Nvidia hat wohl nicht damit gerechnet, dass der Vesa Standard so schnell kommt.

Edit: Knister ist eindeutig zu schnell :D

Aber das ist doch auch durchaus legitim, oder nicht? Man sieht eine Marktlücke und entwickelt ein Produkt um diese zu schließen. Natürlich will man hier erster sein. Ich bin momentan wirklich nicht gut auf Nvidia zu sprechen, aber ich seh hier kein wirkliches Problem....
Für Leute, die das Feature sofort wollen, präsentiert Nvidia halt eine Lösung. Alle anderen warten halt auf Monitore mit eingebautem standardisiertem ASync...
 
AW: Nvidia G-Sync: Experimenteller Treiber löst Verwirrung aus

Aber das ist doch auch durchaus legitim, oder nicht? Man sieht eine Marktlücke und entwickelt ein Produkt um diese zu schließen. Natürlich will man hier erster sein. Ich bin momentan wirklich nicht gut auf Nvidia zu sprechen, aber ich seh hier kein wirkliches Problem....
Für Leute, die das Feature sofort wollen, präsentiert Nvidia halt eine Lösung. Alle anderen warten halt auf Monitore mit eingebautem standardisiertem ASync...

Ich finde auch, dass es legitim ist (vor allem hat das seinerseits wieder AMD und die VESA unter Druck gesetzt, sich zu beeilen :)).

Allerdings müsste halt jetzt, wo der VESA-Standard draußen ist, Nvidia diesen auch unterstützen (was ich annehme). Falls Nvidia tatsächlich bei G-Sync bleibt, und keine FreeSync-Unterstützung bringen sollte, wäre das echt schlimm für die Kunden. Dann bräuchten wir nämlich unterschiedliche Monitore, je nachdem ob wir mit AMD- oder Nvidia-Karten zocken wollen...
 
AW: Nvidia G-Sync: Experimenteller Treiber löst Verwirrung aus

Ich finde auch, dass es legitim ist (vor allem hat das seinerseits wieder AMD und die VESA unter Druck gesetzt, sich zu beeilen :)).

Allerdings müsste halt jetzt, wo der VESA-Standard draußen ist, Nvidia diesen auch unterstützen (was ich annehme). Falls Nvidia tatsächlich bei G-Sync bleibt, und keine FreeSync-Unterstützung bringen sollte, wäre das echt schlimm für die Kunden. Dann bräuchten wir nämlich unterschiedliche Monitore, je nachdem ob wir mit AMD- oder Nvidia-Karten zocken wollen...

Da bin ich ganz deiner Meinung. Und dank dem Leak sind die Chancen vermutlich nicht schlecht, das Nvidia das in Zukunft auch muss. ;)
 
AW: Nvidia G-Sync: Experimenteller Treiber löst Verwirrung aus

Es war nur zu Beginn ein FPGA. Zeitgleich wurde die Produktion eines ASICs in Auftrag gegeben, der einige Monate später dann auch fertig war. Heute ist da kein FPGA mehr drauf, heute ist das ein normaler in Serie gefertigter Schaltkreis.

Gibts da irgendeine Quelle dazu? Meines Wissens ist es nach wie vor ein FPGA.
 
Zurück