Nvidia G-Sync: Experimenteller Treiber löst Verwirrung aus

AW: Nvidia G-Sync: Experimenteller Treiber löst Verwirrung aus

Argument Zwei ist so nicht ganz korrekt. Als Nvidia erste öffentliche Kommentare in der Richtung getätigt hat, dass sie was mit adaptiver Framerate machen werden, war es schon viele Monate her, dass AMD im VESA-Gremium vorgeschlagen hat, den FreeSync-Standard in die neue VESA-Spezifikation aufzunehmen. Die Treffen dieses Gremiums sind nichtöffentlich, aber da Nvidia auch dort vertreten ist, saßen sie dort dabei und haben das vernommen.

Quelle?
AMD hat erst am 25.11.2013 den Vorschlag bei der VESA eingereicht:
AMD 'FreeSync': proposition pour le DP 1.2a - Cartes Graphiques - HardWare.fr

Einen Monat nach nVidia's Vorstellung von G-Sync.
 
AW: Nvidia G-Sync: Experimenteller Treiber löst Verwirrung aus

Mit anderen Worten:
Nvidia hat die ganzen G-Sync Monitor käufer, die sich bereits so einen Monitor gekauft haben, verarscht :lol:

Wer alles nur zum Schnäppchen-Jäger-Preis haben will, für den ist einer der ersten G-Sync Monitore die falsche Wahl - das wird aber auch für die ersten FreeSync-Monitore gelten - und für jede Highend-Grafikkarte, jede High-End-CPU und jede hochwertige Komponente.

Das kann man machen und dann eben mit einem €1000 PC seine Spiele auf einem €300 Monitor zocken - andere sind bereit €2000 für einen PC und €750 für einen Monitor auszugeben, sich eine GTX x80ti oder Titan Grafikkarte zu kaufen und damit auf dem besten erhältlichen Niveau zu spielen - und wer den Wertverlust einer solchen Grafikkarte für den damit verbunden Technik-Vorsprung akzeptiert, der kann über 150 Euro für eine 6-12 Monate frühere Nutzung von G-Sync nur lachen.

Andere müssen halt warten und hoffen, dass FreeSync keine Nachteile hat. Dann können sie endlich mit ihrer Schnäppchen AMD-Grafikkarte das machen was ich als G-Sync User schon seit Monaten kann. Nämlich alle aktuellen Titel problemlos in 1440p mit 144Hz und ohne die V-Sync-Krücke spielen. 2016-17 dürften dann auch die Billig-PCs mit 300 Euro Monitor soweit sein.

Der Neid scheint aber sehr groß zu sein. Kann ich auch verstehen - die Pubertät ist keine einfache Zeit. Und wenn man schon keine vernünftige Frau abbekommt, muss es sehr frustrierend sein, wenn man auch noch bei seinem PC und Monitor neidisch auf andere blicken muss. Zumindest die Pickel verschwinden irgendwann von allein - für den Rest muss man aber aktiv was tun - dann sind auch €150 keine unüberwindbare Hürde mehr. ;)
 
Zuletzt bearbeitet von einem Moderator:
AW: Nvidia G-Sync: Experimenteller Treiber löst Verwirrung aus

Quelle?
AMD hat erst am 25.11.2013 den Vorschlag bei der VESA eingereicht:
AMD 'FreeSync': proposition pour le DP 1.2a - Cartes Graphiques - HardWare.fr

Einen Monat nach nVidia's Vorstellung von G-Sync.

Ja, in dem Französischen Artikel steht eindeutig, dass der Vorschlag bei der VESA am 25.11.2013 eingereicht wurde. Das heißt natürlich nicht zwingend, dass es diesbezüglich nicht vorher Gespräche/Debatten im VESA-Konsortium kam. So ein Proposal kommt ja meistens nicht aus heiterem Himmel. Ich erinnere mich düster, damals vor Nvidias Ankündigung irgendwo was bezüglich "VESA" und "adaptive Framerate" gelesen zu haben. Finde aber keinen Artikel, der früher datiert. Ich ziehe diese Behauptung von mir also einstweilen zurück, da ich sie nicht belegen kann.

Trotzdem glaube ich, dass AMD nicht erst im November 2013 begonnen hat, an der Sache zu arbeiten. Immerhin haben sie auf der CES 2014, welche direkt Anfang Januar 2014 stattfand, ein lauffähiges Setup mit adaptiver Framerate gezeigt:

AnandTech | AMD Demonstrates "FreeSync", Free G-Sync Alternative, at CES 2014

Ich denke nicht, dass das möglich gewesen wäre, wenn sie wirklich erst durch Nvidias G-Sync-Ankündigung auf die Idee gekommen wären, mal was in dieser Richtung zu versuchen... Aber wie gesagt, beweisen kann ich diese Aussage nicht, deshalb ist das nur meine persönliche Meinung :)
 
AW: Nvidia G-Sync: Experimenteller Treiber löst Verwirrung aus

Der Neid scheint aber sehr groß zu sein. Kann ich auch verstehen - die Pubertät ist keine einfache Zeit. Und wenn man schon keine vernünftige Frau abbekommt, muss es sehr frustrierend sein, wenn man auch noch bei seinem PC und Monitor neidisch auf andere blicken muss. Zumindest die Pickel verschwinden irgendwann von allein - für den Rest muss man aber aktiv was tun - dann sind auch €150 keine unüberwindbare Hürde mehr. ;)
Meinst du damit das G-Sync Monitorkäufer Pubertierende mit Minderwertigkeitskomplex sind, da sie immer das "bessere" brauchen weil sie im RL nichts abbekommen? :wall:
 
AW: Nvidia G-Sync: Experimenteller Treiber löst Verwirrung aus

Jeder der was von NV kauft hat Minderwertigkeitskomplexe und einen kleinen P****. ;)

Sorry, konnte ich mir jetzt nicht verkneifen. [emoji14]
 
AW: Nvidia G-Sync: Experimenteller Treiber löst Verwirrung aus

Ja, in dem Französischen Artikel steht eindeutig, dass der Vorschlag bei der VESA am 25.11.2013 eingereicht wurde. Das heißt natürlich nicht zwingend, dass es diesbezüglich nicht vorher Gespräche/Debatten im VESA-Konsortium kam. So ein Proposal kommt ja meistens nicht aus heiterem Himmel. Ich erinnere mich düster, damals vor Nvidias Ankündigung irgendwo was bezüglich "VESA" und "adaptive Framerate" gelesen zu haben. Finde aber keinen Artikel, der früher datiert. Ich ziehe diese Behauptung von mir also einstweilen zurück, da ich sie nicht belegen kann.

Trotzdem glaube ich, dass AMD nicht erst im November 2013 begonnen hat, an der Sache zu arbeiten. Immerhin haben sie auf der CES 2014, welche direkt Anfang Januar 2014 stattfand, ein lauffähiges Setup mit adaptiver Framerate gezeigt:

AnandTech | AMD Demonstrates "FreeSync", Free G-Sync Alternative, at CES 2014

Ich denke nicht, dass das möglich gewesen wäre, wenn sie wirklich erst durch Nvidias G-Sync-Ankündigung auf die Idee gekommen wären, mal was in dieser Richtung zu versuchen... Aber wie gesagt, beweisen kann ich diese Aussage nicht, deshalb ist das nur meine persönliche Meinung :)

AMD sah Jahre auf Patente, die in diese Richtung gehen. Sie haben damit nichts gemacht. Erst nachdem nVidia einen eigenen Scaler produziert und G-Sync vorgestellt hat, hat AMD ihre Patente genommen und diese Technik bei Vesa eingereicht. Mal davon abgesehen, dass die Präsentation vom letzten Jahr nichtmal an das herankommt, was man bei nVidia mit dem Alpha-Treiber machen kann.
Was das ganze irgendwie ironisch macht, da nach G-Sync im Desktopmarkt nun wiederrum nVidia die ersten sind, die variable Refreshraten über eDP als Realität aufzeigen. :ugly:
 
AW: Nvidia G-Sync: Experimenteller Treiber löst Verwirrung aus

AMD sah Jahre auf Patente, die in diese Richtung gehen. Sie haben damit nichts gemacht. Erst nachdem nVidia einen eigenen Scaler produziert und G-Sync vorgestellt hat, hat AMD ihre Patente genommen und diese Technik bei Vesa eingereicht. Mal davon abgesehen, dass die Präsentation vom letzten Jahr nichtmal an das herankommt, was man bei nVidia mit dem Alpha-Treiber machen kann.
Was das ganze irgendwie ironisch macht, da nach G-Sync im Desktopmarkt nun wiederrum nVidia die ersten sind, die variable Refreshraten über eDP als Realität aufzeigen. :ugly:

Nun, um Patente scheint es dabei jedenfalls eher weniger zu gehen, schließlich ist FreeSync (und auch nicht dessen Grundprinzipien) nicht durch irgendein Patent geschützt, sondern ein offener Standard, den jedermann implementieren kann/darf, ohn irgendwelche Lizenzgebühren an irgendjemanden abtreten zu müssen :)

Ob AMD wirklich erst durch die G-Sync-Ankündigung auf die Idee kam, das zur VESA zu schicken, oder ob dieser Plan schon lange vorher in deren Köpfen war, das werden wir wohl nie erfahren. Ist aber letztlich auch zweitrangig. Den Gamer interessiert das Preis/Leistungs-Verhältnis und die Qualität, und nicht wer zu erst war ;)
 
AW: Nvidia G-Sync: Experimenteller Treiber löst Verwirrung aus

Auf gut Deutsch wir werden G-Sync + Modul begraben, das ist nur eine Frage der Zeit und währenddessen behaupten wir das Gegenteil, um noch ein paar schweineteure G-Sync Monitore loszuwerden. Mir ist schon klar wie das läuft... :rollen:

Bleibt ihnen ja wohl auch nichts anderes über, schließlich haben sie Monitorhersteller als Lizenznehmer. Die vor den Kopf zu stoßen kann sich auch NVidia nicht unbedingt leisten.
Im Gegensatz zu uns Kunden, die ja erstmal durch die Händler abgepuffert werden, haben Vertragspartner eine ganz andere Macht und Vertragsstrafen fallen sehr empfindlich aus.
 
AW: Nvidia G-Sync: Experimenteller Treiber löst Verwirrung aus

Sontin schrieb:
AMD sah Jahre auf Patente, die in diese Richtung gehen. Sie haben damit nichts gemacht.

Achso, deswegen haben sie die Funktionalität dem Monitor zu sagen wann er wieviel FPS anzeigen soll schon in die Bonair Grafikkarte integriert, die 2011 auf dem Reisbrett entwickelt und bereits mitte 2012 das Tapeout hatte?:rollen:
AMD hat gar nix gemacht, die haben Jahrelang Däumchen gedreht und dass dies in Hardware in einer Grafikkarte von 2013 ist ist reiner Zufall.:cool:
 
AW: Nvidia G-Sync: Experimenteller Treiber löst Verwirrung aus

Warum diskutiert ihr mit einem Nvidia "Mitarbeiter"? Sontin wird in keinem Forum ernst genommen und all seine Behauptungen wurden schon dezent male widerlegt...
 
AW: Nvidia G-Sync: Experimenteller Treiber löst Verwirrung aus

Dann können sie endlich mit ihrer Schnäppchen AMD-Grafikkarte das machen was ich als G-Sync User schon seit Monaten kann. Nämlich alle aktuellen Titel problemlos in 1440p mit 144Hz und ohne die V-Sync-Krücke spielen.

Wenn ich das lese, frag ich mich wer hier in der Pubertät steckt (oder stecken geblieben ist). :D
 
AW: Nvidia G-Sync: Experimenteller Treiber löst Verwirrung aus

Ich finds gut das "nobelfirma" nvidia mal etwas zersägt wird, vielleicht werden sie ja mal wach, mit ihren tollen Preisen.
 
AW: Nvidia G-Sync: Experimenteller Treiber löst Verwirrung aus

Passt irgendiwe nicht so ganz zu der Aussage Nvidias A-Sync nicht zu unterstützen was?

https://www.youtube.com/watch?v=HHr...-cl=85114404&feature=player_detailpage#t=3302

Also wieder alles nur blabla von Nvidia?

Das Nvidia kein A-Sync unterstützen möchte heißt nicht, dass ein Monitorhersteller keine Modell herausbringen darf, dass sowohl A- als auch G-Sync unterstützt.


Kann gut sein, dass es so ist. Aber wenn die Monitor-Hersteller das im Prinzip auch selber können (wie man ja an den Notebook-Panels sieht), wieso sollten sie dann für ihre Desktop-Monitore extra eine Platine hinzukaufen, die exklusiv von Nvidia hergestellt wird, und dafür noch Lizenzgebühren zahlen? Dann könnten sie es doch stattdessen alleine realisieren... Was sie ja mit FreeSync offensichtlich getan haben, wo keine Zusatzplatine eines Drittherstellers verbaut wird :) So richtig schlüssig ist das ganze für mich noch nicht.

Kaum ein Monitorhersteller dürfte so etwas selbst machen können, die Scaler werden extern eingekauft. Und Nvidia war bislang der einzige Hersteller eines Scalers, der eine flexible Synchronisation unterstützte. Warum die etablierten Scaler-Hersteller so lange brauchten, um zu reagieren, ist nicht bekannt.


Quelle (16.01.2014): [Video-Update: Umbau-Anleitung] G-Sync aktuell noch ein Verlustgeschäft für Nvidia? FPGAs der "Mod-Monitore" kosten weit über 500 Euro


Dort steht auch, dass alleine der FPGA 635 Euro kostet. Daraus kann man definitiv ableiten, dass dieser FPGA nicht mehr verbaut wird...

Ich weiß, das ist keine 100%-Aussage... Man findet nichts aktuelles, ob/welchen ASIC Nvidia nun verbaut. Aber zumindest müssen sie es irgendwie geschafft haben, die anfänglichen Kosten massiv zu reduzieren. Und so einen extrem krassen FPGA (hohe Taktfrequenz sowie 768 MB Speicher onboard) wird man niemals halbwegs preiswert im Einkauf bekommen...

Ich habe keine Informationen vorliegen, dass Nvidia jemals auf einen ASIC gewechselt ist. Zumindest wurde die eingeschränkte Eingangsvielfalt von G-Sync-Monitoren nie erweitert. Möglich wäre, dass sich ein etwas einfacheres FPGA als ausreichend herausgestellt hat oder/und dass Nvidia durch die Stückzahlen von G-Sync-Monitoren einen akzeptablen Preis aushandeln konnte.


Mann kanns auch so sehen.
-AMD arbeitet mit der VESA zusammen um einen offenen Standard zu etablieren von dem alle profitieren.
-Nvidia ist VESA Mitglied und kommt nicht auf die Idee mit AMD und allen anderen Mitgliedern zusammenzuarbeiten sondern macht erstmal ihr eigenes Ding bis sie irgendwann gezwungen sein werden diesen offenen Standard zu unterstützen.

Gremien mit vielen Herstellern, wie die VESA, arbeiten meist sehr langsam. Freesync hat 1,5 Jahre von der ersten Ankündigung bis zur Marktreife gebraucht - obwohl die benötigte Technik schon funktionierte. Nvidia hat diese Zeit genutzt, um die eigene Idee exklusiv zu vermarkten.
 
AW: Nvidia G-Sync: Experimenteller Treiber löst Verwirrung aus

Das Nvidia kein A-Sync unterstützen möchte heißt nicht, dass ein Monitorhersteller keine Modell herausbringen darf, dass sowohl A- als auch G-Sync unterstützt.

Und das soll uns jetzt was sagen, auf die Bemerkung von Tensing?

Nvidia hat diese Zeit genutzt, um die eigene Idee exklusiv zu vermarkten.

Eigene idee?:ugly:
 
AW: Nvidia G-Sync: Experimenteller Treiber löst Verwirrung aus

Tensing wiedersprach einer Aussage, dass es A-Sync-Monitore mit G-Sync geben könnte. Meine Sichtweise dazu: Das ist keine Entscheidung von Nvidia, sondern der Monitorhersteller.
 
AW: Nvidia G-Sync: Experimenteller Treiber löst Verwirrung aus

Es ist wie es ist.

GSync war bzw. ist nach allem was wir heute wissen -wie ich schon lange vermutet habe- mit an Sicherheit grenzender Wahrscheinlichkeit ein großer Bluff.

Das Nvidia kein A-Sync unterstützen möchte heißt nicht, dass ein Monitorhersteller keine Modell herausbringen darf, dass sowohl A- als auch G-Sync unterstützt.

Ein Monitor mit eDP Panel braucht keinen Scaler wenn er mit DP in der nativen Auflösung angesteuert wird. Und dann ist auch Active Sync kein Problem wenn vom Panel unterstützt. Ein Scaler der optional das DP Signal einfach 1:1 an das Panel durchleiten kann würde es auch tun. Das hätte auch grundsätzliche Vorteile im Bezug auf den Inputlag.

In so einem Fall ist nur ein einfacher sogenannter eDP Timer Controller (eDP TCON) notwendig der häufig auf dem Panel integriert ist. Der Monitorhersteller muss also gegebenenfalls abgesehen von einer Stromversorgung und dem Panel selbst keine aktive Elektronik in das Display einbauen.

Wenn man bedenkt das das GSync Modul nur per DP in der nativen Auflösung angesteuert werden kann... hm...

Wozu braucht man überhaupt einen "Scaler"?
-Um einen Monitor mit einer anderen Auflösung und/oder Farbtiefe als der nativen des Panels ansteuern zu können
-Um ein LVDS Panel per DP oder ein eDP Panel per TMDS (HDMI/DVI) ansteuern zu können
-Für das OSD und die Umsetzung der darin getätigten Einstellungen
-Daisy Chain Display Port, eventuell ADC für analoge Eingangssignale, DAC für HDMI/DP Audio,...

Eigentlich alles verzichtbare Features...
 
AW: Nvidia G-Sync: Experimenteller Treiber löst Verwirrung aus

Das hiert kommt jetzt aber nicht so ganz zufällig, oder:

Adaptive Sync für Notebooks: Nvidia arbeitet an G-Sync ohne Zusatzmodul - Golem.de

Golem schrieb:
Nvidia hat bestätigt, an Gaming-Notebooks mit G-Sync zu arbeiten und hierfür den Adaptive-Sync-Standard von Embedded Displayport (eDP) einzusetzen. Bisherige PC-Monitore mit proprietärer G-Sync-Unterstützung benötigen ein integriertes oder ein nachzurüstendes Modul, mit eDP ist dies nicht notwendig.

Da hat nVidias Marketing mal relativ flott reagiert :ugly:


P.S.: Ich linke nochmal den hier mit rein: http://extreme.pcgameshardware.de/user-news/374500-nv-g-sync-debunked.html?highlight=nvidia+edp
 
AW: Nvidia G-Sync: Experimenteller Treiber löst Verwirrung aus

Wie kann das sein? Hier erzählen doch immer alle das in dem Modul jede Menge Vodoo steckt die G-Sync dem Adaptive Sync totaaaal überlegen macht??? Kapier ich nicht
 
AW: Nvidia G-Sync: Experimenteller Treiber löst Verwirrung aus

Ist doch ganz einfach: Bei einem embedded Displayport wird die Displaylogik direkt angesprochen, es gibt keinen Scaler und die ganze restliche Elektronik, die in einem Monitor steckt (OSD, Farbprofile usw.) ist auch unnötig. Dafür kann man über eDP eben auch exakt steuern, wann das Bild refreshed werden soll.

Über klassisches DP ist das so eben nicht möglich. Die Scaler in den Monitoren können das nicht. Dafür wurde ja nun Adaptive Sync und GSync entwickelt.

Ob GSync Adaptive Sync überlegen ist, weiß keiner. Ich halte es eher für unwahrscheinlich, wenn in AdaptiveSync nicht ein ganz grundsätzlicher Fehler stecken sollte.
 
Zurück