G-Sync vs Freesync: Reddit-Beitrag eskaliert

Ich war immer Nvidia-Käufer bis zur GTX 970. Ab da hab ich mir gesagt, wenn die so etwas machen wollen, dann bitte ohne mich. Habe dann so lange es ging auf der 670 ausgeharrt und dann aus Not ne 390X gekauft. Stromkosten haben mich noch nie interessiert, wurden aber auch nicht höher (falls hier wieder die Troll-Milchmädchenrechner ankommen). Mich kotzt die Firmenpolitik von NV massiv an. Wo ist das Problem nett zu sein , auf offene Standards zu setzen und auf normale Preise zu setzen? Braucht die Lederjacke(klingt wie Bushido inzwischen :D ) ne zweite vergoldete Gulfstream 5? Wenn die Leute bescheißen wollen können se das machen. Fliegen se halt bei mir komplett raus (und dann bei anderen auch).
 
Sehe ich genauso. Nvidia könnte einfach beides anbieten. Adaptiv Sync und G Sync.

Es Natürlich Quatsch zu sagen es liege am AMD, es liegt einzig allein an Nvidia. Nvidia hat momentan keine Lust auf einen offenen Standard, mehr ist es nunmal nicht.

Tatsächlich ist es ja eher so, das das ein zusätzlicher Umsatzträger für nvidia ist, da ist ein Chip im Monitor drin, der kostet den Monitor Hersteller locker 100 $ ... das ist ein Extra Gewinn für nvidia ... so etwas hat AMD nicht ... solange nvidia da also mit durch kommt, kann ich mir nicht vorstellen, das sie beides unterstützen würden. Das es geht, hat ja mal einer getestet (hat eine AMD Grafikkarte im System gehabt und dem Monitor vorgeaukelt, da käme ein Gsync Signal und schon lief das ganze ... war aber wohl Frickelarbeit ...
 
Bei mir ist es ein UWQHD Freesync Monitor (100Hz mit Freesync). Ich glaube Freesync Range sind 35-100Hz.
Meistens limitier ich auf um die 110Hz und schau das ich mit den FPS zwischen 60-100Hz lande.
Probleme wie Bildschirmflackern oder sonstwas hatte ich bisher nie.

Bin jetzt nicht komplett drin in der Materie aber ich meine gelesen zu haben das in meinem Fall 100++Frames nichts mehr bringen bzw dann Freesync nicht mehr greift. (wie auch)
Und gerade wenn die Framerate mal dropt (90 auf 60 als Beispiel) merkt man den Unterschied ganz erheblich ob Freesync aktiv ist oder nicht.

Ich hab ja jetzt so nen komischen für Spiele eigentlich komplett untauglichen Ryzen und noch dazu eine Vega64.
Hab bei allen Games die ich bisher gezockt habe immer 60+ Frames, meistens lieg ich um 80-90 FPS (Far Cry 5, BF1)
Denn auch mich kotzt das Ganze an. NVIDIA will ohne Not bzw. technische Notwendigkeit mal schlappe 100-200€ extra.
Für etwas das Freesync genauso gut kann...ohne Extrakosten.
 
Selbst wenn AMD die schnellste Grafikkarte der Welt bauen würde ... A) würde Nvidia nicht von G-Sync abrücken und B) würden die Leute weiter Nvidia kaufen. War doch früher auch schon so. Es gab Zeiten in denen AMD die schnelleren und besseren Karten hatte, trotzdem haben die Leute zu Hitzetod strebenden Fermi-Grafikkarten gegriffen, weil in den Köpfen damals wie heute drinsteckt "Nvidia ist das beste, AMD Treiber sind ********" ... das ist auch der Grund warum wir heute da sind wo wir sind. Die meisten Leute die jetzt jammern das AMD doch endlich wieder eine "Konkurrenz" zu Nvidia bringen soll wollen doch nur das Nvidia gezwungen wird die Preise zu senken, damit sie günstiger an eine Nvidia Grafikkarte heran kommen. Aber so funktioniert das nicht .... wer vernünftige Preise will sollte halt auch mal über den Tellerrand schauen und zumindest die Konkurrenz in Betracht ziehen.
 
Zuletzt bearbeitet:
Der AdaptiveSync Standard der VESA war zuerst da. NVidia hat nur halt die Technik proprietär in ein Modul gepackt, um 500€ pro Monitor draufschlagen zu können.
*** added to DisplayPort spec - The Tech Report[/url]*** first look at Nvidia's G-Sync display tech - The Tech Report - Page 1[/url]
Guck mal aufs Datum.
Zudem kostet ein Gsync Modul keine 500 Euro.
Nur weil du Nvidia nicht magst, brauchst du keine Sachen erfinden.
 
Der AdaptiveSync Standard der VESA war zuerst da. NVidia hat nur halt die Technik proprietär in ein Modul gepackt, um 500€ pro Monitor draufschlagen zu können.

Ganz so war das nicht. Nvidia hat damals der VESA vorgeschlagen den variablen vblank (den es seit dem DVI Standard gibt) zur durchgehenden Synchronisation des Bildschirms mit der Grafikkarte zu nutzen und nicht nur einen vblank beim Verbinden des Monitors mit der GPU. Viele VESA Mitglieder (unter anderem AMD und Intel) waren dagegen weil es erstmal nur Kosten verursacht und keinen Nutzen, gegen Tearing gibt es ja vsync. Weil die VESA es nicht in den Standard nehmen wollte und Nvidia aber davon überzeugt war das Leute diese Funktion haben wollen. haben die sich dran gemacht und selber eine Umsetzung entwickelt. Da es keine Scaler auf dem Markt gab der einen variablen vblank unterstützte hat Nvidia einen eigenen Entwickelt in Form des G-Sync Moduls. Die Technik funktioniert, bekam großen Anklang bei der Öffentlichkeit und plötzlich waren die anderen Hersteller, die Mitglied bei der VESA sind, bereit Nvidias ursprünglichen Vorschlag umzusetzen woraus dann adaptive vsync bzw. Freesync wurde.

Nvidias G-Sync war zuerst da. Jetzt wo es die Funktion im VESA Standard gibt, hat Nvidia das bekommen was es ursprünglich wollte. Warum gibt es weiterhin G-Sync? Entweder hat Nvidia seine Entwicklungskosten noch nicht wieder eingespielt, mit dem Verkauf der G-Sync Module kann Nvidia Geld machen oder der VESA Standard funktioniert nicht so gut wie es Nvidia möchte. Nvidia hat bei Laptops (bekannt sind ein Modell von Asus und MSI) mal mit G-Sync über adaptive Sync herumprobiert und es gab Probleme im wichtigen Bereich um die 30-50 FPS in Form von Bildflackern. Das Modell von Asus kam komplett ohne G-Sync raus und das von MSI bekam ein G-Sync Modul.

Eigentlich kann man mittlerweile auf das G-Sync Modul verzichten, da die Scaler die adaptive sync unterstützen gereift sind und die Unterschiede so gering sind, dass man diese vernachlässigen kann. Vor allem scheint Nvidias G-Sync Modul sein Limit erreicht zu haben, da es bei G-Sync HDR aktiv gekühlt werden muss. Wir haben noch keinen Freesync 2 Monitor mit DP1.4 Unterstützung gesehen wodurch man nicht sagen kann ob ein entsprechender Scaler auch aktiv gekühlt werden muss.

Damit Nvidia auch auf adaptive sync setzt muss der Druck erhöht werden. Viele Gaming Monitore mit Freesync haben eine geringere Bildwiederholrate als der selbe Monitor mit G-Sync (75 Hz gegen 120 Hz, 100 Hz gegen 144 Hz oder 160 Hz gegen 200 Hz). Erst im letzten Jahr gab es endlich Modelle die mit den G-Sync Modellen gleichziehen können wodurch es jetzt erst wirklich eine Alternative zu G-Sync gibt. Der Druck auf Nvidia wird sich jetzt erst langsam aufbauen, wenn der einzige Unterschied zwischen den Monitoren G-Sync oder Freesync ist. Viele werden sich einen G-Sync Monitor geholt haben nicht wegen G-Sync sondern wegen der anderen Spezifikationen und G-Sync war halt dabei, z.B. bei den vielen 21:9 Monitoren oder den 4k@120Hz+HDR Monitoren. Wenn man heute in so einer Situation ist und es ein gleichwertiges, günstigeres Modell gibt, würde man zu dem greifen.
 
Ich bin da voll auf deiner Seite. Habe nen 144 Hz Samsung mit Freesync. Mit der RX480 und der RX 580 hab ich schon keinen Unterschied zwischen Freesync on oder off bemerkt. Und auch mit der GTX 1060, GTX 1080 und der RTX 2080 finde ich einfach kein Tearing. Eventuell wird das ganze nur bei bestimmten Spielen, wie Rennspielen sichtbar, die habe ich jedoch gar nicht. Vielleicht hat sich die ganze Sache ja eh schon selbst erledigt.

Tearing tritt immer auf wenn z.b V sync, Fast Sync ( Software ) oder Freesync, G sync ( Hardware ) nicht aktiv ist. Meiner Meinung macht es auch keinen Sinn V Sync mit Freesync zu kombinieren, da nimmt man einfach einen Framelimiter. Bei 144 HZ Monitor sind das nur extrem kurze Zeiträume, so das man es vielleicht nicht mehr wahrnimmt.
 
Mal von der Schuldfrage abgesehen frage ich mich eher: Warum "musste" Nvidia denn ein eigenes Süppchen kochen, statt einfach einen offenen Standard zu nehmen und somit ihre Karten an spezielle (auch noch teure) Hardware zu binden?
Warum nicht mal kundenorientiert? Ich vermisse das bei den Grünen die letzten Jahre sehr!
 
Ja aber es gibt doch keine Konkurrenz zu nvidia, das ist doch das Hauptproblem.
Was willst du als High End Gamer mit den AMD Schnarchkarten.
War früher auch Ati Fan, falls diese Marke noch jemand kennt
 
Ich bin gespannt wie es weiter geht. Persönlich würde ich nie auf den proprietären Mist von Nvidia setzen (habe eine NV-Graka). Mit HDMI 2.1 und VRR wird es nächstes Jahr interessant.
 
Interessant, AMD hat Schuld, das nVidia ihren propritären Mist nicht aufgibt...

Das ist dann wohl die Logik derer, die nicht müde werden den ePenis Vergleich zu betonen ..

MiMiMi nVidia ist aber besser, MiMiMi Intel ist aber besser ...

was für ein Quatsch.

Ich bin immer noch der Meinung das es eine Randgruppe von vllt 3% geben mag, die 4K so exzessiv spielen, das sich eine Kombi aus 8700k/9900k und RTX lohnt.

FÜR ALLE ANDEREN!!! ... reicht Ryzen + Vega + Freesync in allen Belangen und absolut aus.

Und erstmal selber testen, bevor man meckert.

Der Großteil würde keinen Unterschied merken zwischen
8700k + Vega 56 + Freesync
2700x + 1080 + GSync
8700k + 1080 + GSync
2700x + Vega 56 + Freesync

Wahrscheinlich keiner, der einen Unterschied merkt.
 
werde nie vergessen wie man mir auf der IFA 2018 einen FreeSync 2 Monitor präsentiert hat der an einem Rechner mit Nvidia GTX Karte angeschlossen war :lol:

Letzes mal im Media Markt genau das gleiche erlebt haben da einen 32 zoll freesync monitor hingestellt mit 144 herz was erstens auf 60 herz gestellt war und zweitens auf ner gtx1060 system gelaufen ist...

Sagte zum verkäufer auch was das für einen Sinn hatte und er meinte ja das musst du unsere Computer Typen dort drüben sagen und ich so achso naja schon ok :D
 
Interessant, AMD hat Schuld, das nVidia ihren propritären Mist nicht aufgibt...

Das ist dann wohl die Logik derer, die nicht müde werden den ePenis Vergleich zu betonen ..

MiMiMi nVidia ist aber besser, MiMiMi Intel ist aber besser ...

was für ein Quatsch.

Ich bin immer noch der Meinung das es eine Randgruppe von vllt 3% geben mag, die 4K so exzessiv spielen, das sich eine Kombi aus 8700k/9900k und RTX lohnt.

FÜR ALLE ANDEREN!!! ... reicht Ryzen + Vega + Freesync in allen Belangen und absolut aus.

Und erstmal selber testen, bevor man meckert.

Der Großteil würde keinen Unterschied merken zwischen
8700k + Vega 56 + Freesync
2700x + 1080 + GSync
8700k + 1080 + GSync
2700x + Vega 56 + Freesync

Wahrscheinlich keiner, der einen Unterschied merkt.

Gerade in 4K oder UHD ist die CPU selten der begrenzende Faktor.
Auch sonst mach deine Aussage wenig Sinn, da gerade bei Software die wenig Kerne nutzt, eine CPU mit hoher IPC klar im Vorteil ist.
Nicht jeder hat die gleichen Ansprüche und Dinge werden auch verschieden wahr genommen.
 
Mal wieder ein typischer Fall von "die anderen sind schuld". AMD war bis zur GTX 1000er Generation durchwegs in allen Kategorien konkurrenzfähig außer vielleicht bei den Enthusiasten (980 TI). Trotzdem wurde munter Nvidia mit dem besseren Marketing gekauft. Und bevor mir einer der üblichen Verdächtigen mit dem Stromverbrauch kommt: Das interessiert bei den normalen Gamern kein Schwein. Bei den Fermi hat auch kein Hahn danach gekräht, da gabs schlechtere, stromhungrigere Karten von Nvidia von denen trotzdem mehr verkauft wurden als vom AMD Modell.
Ich sehe insgesamt die meiste Schuld beim Kunden und Nvidia mind. genauso schuldig mit seinen aggressiven Geschäftspraktiken wie es AMD mit Fehlentscheidungen war.

Ansonsten fällt mir dazu nur die Whiskeymarke Chivas Regal ein. In den 50ern noch eine Billigmarke mit wenig Absatz. Dann haben die den Preis drastisch erhöht und plötzlich war das ein guter Whiskey...
Das der gut ist wäre mir entgangen :ugly:

Mit einem geschlossenen Standard kann man Kunden aber wesentlich besser langfristig in sein eigenes Software/Hardware Ökosystem zwingen. Wieviele Leute steigen denn von Apple um? Aber innerhalb von Android kann man fröhlich herum"hoppen"
Das ist aber auch ein Äpfel/Birnen Vergleich. Für iOS Geräte gibts nur einen Hersteller während Android eben von verschiedenen Angeboten wird. Und einen Umstieg von Android zu iOS und umgekehrt hab ich im Bekanntenkreis auch schon öfter beobachtet, ist jetzt nicht gerade problematisch.
 
Naja mann muss schon sagen das G-sync ein wenig besser ist. Mein Monitor hat G-sync von 30-165 Herz. Die Amd dinger die so günstig sind laufen alle so bei 40-45 Herz an und gehen bis 90Herz was ziemlich Banane ist. Teurere wie der Eizo haben von 35-144 herz was aber auch mit knapp 1000€ zu buche schlägt. Ich will kein Monitor der erst spät mit sync anfängt so früh wie möglich ist das beste. Und ich habe auch kein bock beim Video Einspieler Tearing zu bekommen weil das Video mit 105fps oder so läuft. Ich würde es dennoch berüßen wenn alle auf den Freien Standart gehen und diesen verbessern.
 
Naja mann muss schon sagen das G-sync ein wenig besser ist. Mein Monitor hat G-sync von 30-165 Herz. Die Amd dinger die so günstig sind laufen alle so bei 40-45 Herz an und gehen bis 90Herz was ziemlich Banane ist. Teurere wie der Eizo haben von 35-144 herz was aber auch mit knapp 1000€ zu buche schlägt. Ich will kein Monitor der erst spät mit sync anfängt so früh wie möglich ist das beste. Und ich habe auch kein bock beim Video Einspieler Tearing zu bekommen weil das Video mit 105fps oder so läuft. Ich würde es dennoch berüßen wenn alle auf den Freien Standart gehen und diesen verbessern.

Es gibt einen 144Hz Freesync, bei dem bei 90Hz Freesync Schluss ist und die Frequenz beim Eizo ist zweigeteilt.
Die anderen gehen bei 30-70 Hertz los und gehen bis 144Hz hoch.
Freesync hat den Vorteil, dass auch mehr als 8bit gehen und es nichts extra kostet.
 
Prestige-Statussymbol.. so ein Blödsinn.

Es geh den meisten halt um die letzte Performance.. und die hast du halt nur mit Intel + Nvidia

Ein 9900k/8700k/7700k @ 5GHz+ dagegen reißt keine AMD CPU im CPU Limit was Single Thread betrifft irgendwas. Mit Ryzen besser geworden aber immer noch weit davon entfernt.
Und das gleiche bei den Grafikkarten. ne 1080Ti oder 2080/2080Ti dagegen kannst du halt nichts mit AMD reißen.

Eventuell ändern das die kommenden AMD CPUs, aber einen Boost auf ~5GHZ bei 8 Cores wird auch die kommende Genereation nicht schaffen. Auf vielleicht 1-2 Cores ;)
Komisch nur das ein Großteil der Umsätze nicht im High End generiert werden und AMD im Preis/Leistungsrelation oft besser dastand

Gesendet von meinem HTC One_M8 mit Tapatalk
 
nutzt gezwungender maßen g-sync und es ist einfach so ein dreck, nur probleme...bringt spiele dazu sich auf 30fps zu locken, bringt videos zum ruckeln, lässt den monitor beim spiel start aus gehen funktioniert im fenstermodus nicht gescheit ect pp

Sorry ich weiß nicht was du da anstellst aber ich sowie mein Bruder haben deine Probleme nicht. Wir sind hellauf Begeistert von unseren G-sync Monitoren und würden nicht wieder umsteigen wollen. Es ist ein mergbarer Unterschied den ich jederzeit auch sehen kann dank MMOs. Wenn viele Effekte kommen merkt man sowas von gewallig ob gsync an oder aus ist.
 
Also muss sagen bei 60 herz ist gsync auch nicht so angenehm als wie sagen wir mal ab 75 herz aufwärts. Und ja hatte auch selber schon mal gespielt und hatte da um die 100 bis 120 herz in einem Spiel und nach zirka 15 min hab ich mir gedacht hey irgend etwas stimmt da nicht und siehe da Gsync war deakteviert.

Also ja man merkt es selbst ab 100 herz und aufwärts aber es ist vieleicht nicht so störend trotzdem merkt man es (Zumindest ich)

Mein freund der hat seinen 15 Jahre alten 1080/60herz (Ohne gync/freesync) monitor bei cs mit Vsync off betrieben und ich habe sofort gesagt hey siehst du nicht das tearing ist ja furchtbar, und er so was meinst du denn!??

Aber ja das sind hald leute die keine Ahnung haben oder sicht nicht mit der Materie beschäftigen und denken das sei alles normal aber mich dann geschockt zurück lassen und ich mir denke WTF machen die denn?
 
So.. jetzt nochmal scharf nachdenken, ob G-Sync im Bereich von 75+ fps auch nur halbwegs sinnvoll genutzt wird...
G-Sync und Adaptive Sync sind für low FPS Situationen gedacht - also alles unter 40 fps.
Im Bereich von 75 bis 100 fps hast du nahezu keinen Effekt mehr.
Und erst recht nicht, wenn V-Sync aktiv ist....
Mit aktivem V-Sync ist G-Sync aus.

Sry aber das ist kompletter Quark. Du hast den Sinn von G-Sync null verstanden.
Es bringt immer was wenn FPS ungleich Monitorfrequenz, natürlich nur in der Range zwischen der angegebenen Min Hz und den eingestellten Hz. Drunter oder drüber ist G-Sync inaktiv.

Mit aktivem V-Sync ist G-Sync nicht aus.. informier dich mal. V-Sync setzt nur das Limit damit die FPS nicht über die Hz gehen. Alles darunter wird von G-Sync "übernommen"
 
Zurück