G-Sync Compatible ... - das sagen die PCGH-Redakteure dazu

Kriegsbeil begraben?

Dieses bißchen angepflaume ist nichts weiter als Show für die Märkte und für die Behörden. Sie können schlecht sagen das ihr letzter Konkurrent alles richtig macht, man eng zusammen arbeitet und alle Mitarbeiter von AMD und Nvidia in dem Top-Duopol zum Gelddrucken beschäftigt sind. Das funktioniert im Kapitalismus so nicht.

Lisa und Onkel Huang werden sich weiterhin auf den Familienfeiern gemeinsam scheckig lachen und sich weiterhin Luft zum Atmen lassen.

Weil AMD nicht hinterher kommt sponsort nVidia mal eben Raytracing for Free an. Die Preise für RTX 2070/2080 gehen klar in übliche Preisgefilde. Der Raytracingpart ist demnächst praktisch umsonst.... Die zwei sind wie die Caritas' :D
 
*zensiert*

Also dafür daß PhysX "seit Jahren" schon open-source ist, machen sie sich richtig viel Mühe um zu erklären, dass PhysX JETZT ENDLICH opensource ist (Stand 2018).
Mit 2018 wurde die Lizenz geändert - habe ich aber bereits erwähnt und wie zu erwarten versuchst du heir Tatsachen zu verdrehen - aber Gratuliere das du hier so offen zeigst das du an der Wahrheit und Fakten nicht interessiert bist.
 
Zuletzt bearbeitet von einem Moderator:
falsch.
Die ersten gab es bereits 2013 - per Upgrade-Kit von bereits vorhandenen Displays.
Falsch, Nvidias eigene Anleitung für die Upgrade Kits ist aus 2014:
https://international.download.nvid...rnational/pdfs/NV_GSync_DIY_Install_Guide.pdf
YouTube

Da wurde der Standard released - genauso wie PCIe4.0 jetzt ja schon überall verbaut ist - gab es ja auch schon 2017... oh warte.....
Interessanter Vergleich, den 2013 veröffentlichte, 2014 auf dem markt erschienen DP 1.2a Standard mit dem noch nicht erschienen PCIE 4.0 gleichzusetzen, da könnte man fast davon ausgehen, dass du gewisse Details ignorierst/unterschlägst :rollen:
Mal davon abgesehen, dass der ASync Standard wie gesagt schon 4 Jahre vor der GSync-Veröffentlichung schon mit eDP existiert hat.
Und das sie einer der Hauptkontributoren bei VESA sind - unter anderem auch die Grundlage für AdaptiveSync mitentwickelt haben.
Hab dir das Schlüsselwort hervorgehoben. Soweit ich weiß ist nicht nur Nvidia VESA-Mitglied das am Standard mitgewirkt hat. Du stellst es aber so dar, als wären sie der einzige, der hier wirklich irgendwas gemacht hat. Quasi als würde Barcelona nur aus Messi bestehen und der Rest ist nur dazu da, um 11 Mann auf dem Platz zu haben...

Ist immer wieder genauso lustig wie die Leute die Behaupten PhysX wäre nicht open-source auch wenn es das schon seit Jahren ist (2015).
Mit 2018 haben sie nur die Lizenzbedingungen und Zugang zu GPU-PhysX geändert. Aber AMD-fanboys haben da auch jetzt noch das gegenteil der Wahrheit behauptet.
Es war NICHT Open-Source, wie Nvidia ja selbst sagt: NVIDIA PhysX for High-Fidelity Simulations Goes Open Source | NVIDIA Blog
TEILE waren Open Source. Nämlich die zu vernachlässigenden CPU-Komponenten. O-Ton Nvidia:
PhysX uses both the CPU and GPU, but generally the most computationally intensive operations are done on the GPU.
PhysX | FAQ | GeForce

Genauso wie "italienische" Dosentomaten nicht aus Italien sondern China sind. Das einzige was in Italien passiert ist das verpacken.
 
Wird Gsync-Compatible für Windows 7 noch nachgerüstet? Wäre nett wenn jemand, der diesbezüglich infos hat, mir das Mitteilt. :)
Ist jetzt etwas blöd gelaufen, weil ich mich darauf wirklich gefreut hatte.
 
Nach den Handlungen der Mods hier zu schließen ist Lügen erlaubt, das ankreiden des selbigen aber nicht - ok.... dann sagen wir halt einfach das AMD Adaptive-Sync erfunden hat und das es nie Probleme gab.

INU-Edit: Erzähl keinen Unsinn, du hast andere User beleidigt, DAS ist hier nicht erlaubt.
 
Zuletzt bearbeitet von einem Moderator:
Wird Gsync-Compatible für Windows 7 noch nachgerüstet? Wäre nett wenn jemand, der diesbezüglich infos hat, mir das Mitteilt. :)
Ist jetzt etwas blöd gelaufen, weil ich mich darauf wirklich gefreut hatte.
Hat Nvidia sich bis jetzt nicht zu geäußert. Stand jetzt halte ich es für unwahrscheinlich aber nicht unmöglich.
 
Jeder Thread über GPU artet nur noch in einen Glaubenskrieg mit den immer gleichen Argumenten und ohne Gewinner aus. Macht langsam keinen Spaß mehr. :daumen2:
 
Jeder Thread über GPU artet nur noch in einen Glaubenskrieg mit den immer gleichen Argumenten und ohne Gewinner aus. Macht langsam keinen Spaß mehr. :daumen2:

Ist das nicht seit ein paar Jahren in der Gesellschaft bei beinahe jedem Thema so?

Hach, wie gerne erinnere ich mich an das Internet von vor 15 Jahren zurück. Da war das gefühlt nicht so übel und bedeutend zivilisierter.
 
Genau das meine ich mit deinen Lügen - aber hey, Fanboy bleibt rfanboy und Lügner die keine Ahnung haben werden auch weiterhin lügen.

*zensiert* Mich würde nur interessieren, ob du die nächste Zeile auch gelesen und bewusst ignoriert hast oder schon nach den paar Worten um deinen Computer rumgesprungen bist wie das Rumpelstilzchen um dann lieber persönliche Angriffe denn Argumente zu posten, weil dir letztere fehlen.
Nvidias "Open Source" war ein Halbharter ("Nursing a semi" wie es so schön in Englisch heißt), man kann was erahnen, aber das Teil ist nicht wirklich "einsatzfähig".


@Mods ich hoffe ich hab es jugendfreundlich genug umschrieben :ugly:
INU-Edit@sterreich: Fast. :D
Hach, wie gerne erinnere ich mich an das Internet von vor 15 Jahren zurück. Da war das gefühlt nicht so übel und bedeutend zivilisierter.
Hatte mehr finanzielle wie intelektuelle Hürden als heute. :P
Ich musste unseren ersten W-Lan Router (wir sprechen hier noch von 802.11a) so oft resetten weil er bei mehr als einem Gerät Faxen machte, dass ich schon bald das 13-Stellige alphanumerische (+groß/klein) Passwort auswendig wusste. :wall:
 
Zuletzt bearbeitet von einem Moderator:
Nvidia hat den Standard Mitentwickelt - abgesehen davon das sie überhaupt erst die Grundlagen dafür erfunden haben. Und wenn man der Industrie vertrauen kann dann haben sie mehr dazu beigetragen als AMD. Mri war es immer schleierhaft warum sie den AdaptiveSync standard nicht unterstüzt haben.

Ist doch ganz einfach:
NVidia unterstützt den Standard nicht wirklich.
Ansonsten würden 400 der 400 getesteten Monitore funktionieren müssen.
Aber da deren Karten allerlei Probleme machen, sollte man natürlich lieber weiterhin zu AMD Karten greifen, wenn man ganz sicher gehen möchte.
Ist wirklich lächerlich zu behaupten, sie hätten das erfunden.
Kann so ja gar nicht stimmen oder die sind einfach nur zu dumm das dann auch zu nutzen.
Wäre ja ganz schön hirnrissig, Zeit und Geld in ein Projekt zu stecken, was dann die Konkurrenz für sich nutzt und man selber nicht.
Daher frage ich mich echt, was NVidia da wieder für eine Grütze von sich gibt (bzw. laut News von sich gegeben haben soll) - es ist einfach nicht logisch nachvollziehbar.
 
Die Glaubenskrieger sind wieder unterwegs, super.

Ich persönlich mag NVIDIA einfach lieber (persönliches Empfinden) und finde den Schritt somit sehr willkommen, da ich schon mehrfach Interesse an diversen Monitoren hatte, welche allerdings nur FreeSync und kein G-Sync boten. War sogar schon dabei nach AMD Grakas zu schauen, um FreeSync nutzen zu können, aber dort wurde in der oberen Leistungsklasse leider nichts mehr geboten, sonst wäre ich vielleicht mal wieder umgestiegen.

Ich bleibe erstmal bei meinem G-Sync Monitor und warte was AMD in der nächsten Generation so abliefert. Die NVIDIA RTX Generation lasse ich aus, sagt mir nicht zu, aber ich spekuliere auf die nächste und darauf, dass G-Sync Compatible weiter ausgebaut und optimiert wird.

Am Ende ist es doch völlig egal ob NVIDIA, oder AMD lieber mag...ist doch wie mit Apple und Android. Was ist schon "besser" - vieles ist einfach subjektiv, eine Preisfrage und was einem vom handling her (Treiberoberflächte etc. in diesem Fall) besser liegt, oder gefällt. Ich hatte schon einige Grakas und CPUs von Intel, Nvidia, AMD und damals ATi...und ich bin einfach bei Intel und Nvidia geblieben. Verstehe trotzdem warum viele auch zu AMD tendieren, hat auch seine Vorzüge.

ICH PERSÖNLICH hatte mit AMD über die Jahre mehr Probleme bei Spielen (auch durch Treiber), als mit NVIDIA und Intel. Das ist meine persönliche Erfahrung und das kann mir niemand absprechen. Andere mögen es umgekehrt erfahren haben...entsprechend unterschiedlich kann deren Sicht der Dinge aussehen. Ist doch wie mit allem im Leben.

Schade, dass man hier nie über ein Thema reden kann,ohne dass es völlig abschweift und aus dem Ruder läuft...wie schon bei Apple vs Android und Xbox vs Playstation, VW vs Opel. Grauenhaft.
 
Ich persönlich mag NVIDIA einfach lieber (persönliches Empfinden) und finde den Schritt somit sehr willkommen, da ich schon mehrfach Interesse an diversen Monitoren hatte, welche allerdings nur FreeSync und kein G-Sync boten. War sogar schon dabei nach AMD Grakas zu schauen, um FreeSync nutzen zu können, aber dort wurde in der oberen Leistungsklasse leider nichts mehr geboten, sonst wäre ich vielleicht mal wieder umgestiegen.

Kann ich voll nachempfinden und trifft bei mir genau den richtigen Nerv. Ich liebäugle schon ewig mit nem tollen 32" HDR Curved Monitor und hatte ihn schon hundert mal im Warenkorb. Immer wieder nicht genommen weil ich von der Leistung her einfach Nvidia wollte. Jetzt ist damit endlich schluss und ich kann den Monitor kaufen. Und wenn wirklich was cooles im GPU Bereich von AMD kommt und ich mal umsteige muss ich den Monitor auch nicht mehr wechseln.
 
Das passt aber nicht zu den aktuellen Marktanteilen.
Grafikkarten - Marktanteile von Nvidia und AMD bis Q3 2018 | Statistik
Wenn man fast 75% der Gesamtnutzer auf seiner Plattform hat wird man in der Regel versuchen diese zu binden und nicht krampfhaft versuchen die restlichen 25% zu bekommen.

Persönlich sehe ich den Schritt nach wie vor als Vorbereitung auf HDMI 2.1 . So bleibt der Eindruck aus genau mit Einführung dieser Schnittstelle zu VRR Support gezwungen zu werden.

Über 95 Prozent der Kunden dürften die Feature-Liste von HDMI 2.1 nicht kennen und Nvidia wäre nicht gezwungen, diese bei Vorstellung neuer Hardware zu bewerben. Man hätte Adaptive Sync also ganz dezent als Fußnote einführen können. Zudem werden für die nächsten Monate keine Nvidia-Neuvorstellungen erwartet, die HDMI 2.1 unterstützen könnten und umgekehrt gibt es abseits der schon größtenteils verhallten Reaktionen auf die Radeon VII im Moment kein Thema, das von G-Sync compatible ablenken könnte. Nvidia hat ohne Zwang eine medienwirksame Veröffentlichung hingelegt; das genaue Gegenteil von "unter den Teppich kehren".

Eine finanzielle Erklärung fällt allerdings noch schwieriger. Die Erleichterung von Wechseln hilft selten dem Unternehmen, dass mehr Kunden zu verlieren und weniger zu gewinnen hat. Und die Entscheidung fällt in einer Zeit, in der mit Ausnahme der RTX 2060 kein aktuelles Nvidia-Produkt einen direkten AMD-Konkurrenten hat und vor allem die Verrentung von Nvidia-Karten (GTX 970 und 980) ansteht.


Ich persönlich finde es nur noch fragwürdig und fahrlässig, das nirgendwo ein Hinweis auf Win7-Ausschluß steht.
Von mir aus sollen die Hersteller machen, was Sie wollen- aber bei 37% Marktanteil von Win7 wäre ein kleiner Hinweis, das Es mit Nvidia und Win7 nicht geht,sicher nicht zu schwierig gewesen!
Und nu bitte nicht wieder mit alt und doof anfangen-es geht nur um das weglassen von Fakten!
Gruß Yojinbo

Es handelt sich bei diesem Artikel offensichtlich um private Meinungen der Redakteure. Da außer mir alle Redakteure auf Windows 10 setzten (und darauf fluchen :-)) hätte Windows 7 also nur in meinem Beitrag eine Rolle spielen können und selbst ich fand andere Aspekte wichtiger.


Anno 2013 auf PCGH.de:
http://www.pcgameshardware.de/Nvidi...-255598/Specials/Nvidia-G-Sync-Daten-1093359/
 
Da außer mir alle Redakteure auf Windows 10 setzten (und darauf fluchen :-)) hätte Windows 7 also nur in meinem Beitrag eine Rolle spielen können und selbst ich fand andere Aspekte wichtiger.
Da Nvidia sich dazu so bedeckt hält, könnt ihr als Redaktion nicht nach einem Statement zu Win7/Gsync Compatible fragen? In ihrem Treiberforum antworten sie nicht auf die Fragen der Nutzer :)
 
Ist doch ganz einfach:
NVidia unterstützt den Standard nicht wirklich.
Ansonsten würden 400 der 400 getesteten Monitore funktionieren müssen.
Aber da deren Karten allerlei Probleme machen, sollte man natürlich lieber weiterhin zu AMD Karten greifen, wenn man ganz sicher gehen möchte.
Ist wirklich lächerlich zu behaupten, sie hätten das erfunden.
Kann so ja gar nicht stimmen oder die sind einfach nur zu dumm das dann auch zu nutzen.
Wäre ja ganz schön hirnrissig, Zeit und Geld in ein Projekt zu stecken, was dann die Konkurrenz für sich nutzt und man selber nicht.
Daher frage ich mich echt, was NVidia da wieder für eine Grütze von sich gibt (bzw. laut News von sich gegeben haben soll) - es ist einfach nicht logisch nachvollziehbar.

Naja, Nvidia unterstützt schon 400 von 400 Monitore, nur funktionieren nicht alle dieser 400 Monitore ordentlich damit und deshalb bekommen nur wenige den Stempel "G-Sync Compatible". Man kann G-Sync Compatible manuell dazuschalten und dass funktioniert auch tadellos. Wenn man aber die Foren und die Beiträge der jeweiligen Teilnehmer zu diesem Thema genau liest, stellt man schnell Fest, dass auf dem Freesync Markt doch deutlich viele Freesync Monitore sind, die selbst mit ner AMD Karte Flackern, stottern oder was auch immer zeigen. Und das auch bei Premium Herstellern wie Samsung, LG, Viewsonic, Benq usw. Es ist sehr warscheinlich, dass nur sehr wenige ordentliche scaler verwendet haben, einfach aus Kostengründen.

Und auch wenn ich NVidia und ihre Politik nicht für das gelbe vom Ei halte, glaube ich ihnen hinsichtlich der Qualitätssicherung, dass nur wenige Monitore diese Prüfung bestehen. Natürlich wird ein Stück weit auch etwas übertreiben, aber mein Monitor funktioniert z.B. mit Freesync zeigt aber unter einer AMD Karte und jetzt auch mit meiner RTX flackern in vielen Spielen, man kann grundsätzlich damit spielen, aber dem geübten Auge fällt das auf. Es geht sehr vielen so, einfach in die entsprechenden Threads lesen. Ich war heute im Elektronikfachhandel und hab mir mal einen G-Sync angeschaut und das sieht deutlich besser aus. Wenn die Monitore nicht 300€ teuerer wären, würde ich sofort einen kaufen...
 
Und ich bin dann jetzt mit meinem G-Sync Monitor der gelackmeierte, wenn ich mich irgendwann Mal für eine AMD oder Intel Grafikkarte entscheide? Oder wurde schon etwas im Bezug G-Sync Monitore und deren Kompatibilität mit Free-Sync veröffentlicht.
 
Also nach etwas testen muss ich auch sagen das ich etwas ernüchtert bin. Zu einen weil mein Monitor leider standardmäßig nur Freesync be 48-70 HZ greift was arg wenig ist. Damit daraus mehr wird musste ich ebenfalls mit den CRU Teil nachhelfen was ziemlich gut ging (Nun 35-70HZ) Gut dafür kann Nvidia nichts.

Aber deren treiber...das wirkt richtig antik gegen AMDs Treiber Menü. Und es fehlen bei Nvidia einige wichtige Settings. Warum kann z.B ich nicht die FPS Limitieren? Warum muss wie von Raff erwähnt den Treiber hacken? und mit anderen Tools nachhelfen? :what: Auch habe ich wenn ich mal ein Video im Vollbild starte ein kurzen Blackscreen.

Und Freesync selber...das Ergebnis wirkt "ok" Zwar keine Bildrisse mehr direkt aber ich finde trotzdem das dass Bild mit aktivierten Vsync (inkl. Freesync) fehlerfreier wirkt als wenn nur Freesync an ist (Und Vsync aus) Ka ob mein Monitor Freesync nicht so gut kann oder der Treiber hier noch etwas rumzickt. Oder ich hatte einfach zu hohe Erwartungen :schief::ugly:
 
Zurück