G-Sync HDR: Nvidias Freesync-2-Konkurrent ist theoretisch weniger flexibel

So schön das Panel ja sein mag, das ist ja mal wieder so ein lächerliche Aktion von NV :nene:
Ein Panel mit zu entwickeln und anzupreisen ist ja okay, aber andere Panels / Monitore auszuschließen ist halt so ein Schwachsinn. Welcher Spieleentwickler sollte eine Unterstützung für genau einem extrem teuren Monitor einbauen? Das würde ich schon aus Prinzip nicht machen.
Freesync 2 gefällt mir da viel besser, auch wenn der Name von AMD mal wieder ein Griff ins Klo ist. Ich hoffe, das sehen auch die Entwickler so.
 
Welcher Spieleentwickler sollte eine Unterstützung für genau einem extrem teuren Monitor einbauen?

Entwickler, die sich gerne von Nvidias Support-Armee unter die Arme greifen lassen. Im besten Fall übernimmt die nicht nur diese Arbeit, sondern gibt auch noch Hilfeleistung an anderer Stelle (finanziell, personell, was auch immer). Und dann hat Nvidia Verbündete (Studios/Engine-Entwickler) mit denen sie eine gefühlte Ewigkeit zusammenarbeiten, Band of Brothers.
 
Zuletzt bearbeitet von einem Moderator:
Ich hoffe ,dass das irgendwie der Pflock für Gsync ist und es abstirbt und Nvidia zu Adaptive Sync greift. Diese Einschränkung aufgrund der Grafikkarte oder des Monitors den man besitzt ist so ziemlich das Konsumentenfeindlichste was ich seit Jahren gesehen habe. :nene:

Im Mobile Bereich machen sie das ja schon, heißt zwar gleich, ist es aber nicht. Sie sind wohl selbst der Auffassung, dass keiner den Unterschied merkt.
 
Ich hoffe ,dass das irgendwie der Pflock für Gsync ist und es abstirbt und Nvidia zu Adaptive Sync greift.
Das hoffe ich auch. Ich lasse mich nicht mit einem Monitor von einem Hersteller abhängig machen, denn ich wechsle in der Regel zu dem Produkt was mir am meisten zusagt.
 
Zuletzt bearbeitet:
Dahinter verbirgt sich eine Kombination aus neuem G-Sync-Modul, einem bestimmten, HDR10-tauglichen IPS-Panel von AU Optronics und einer Unterstützung seitens der Spieleentwickler.

Für das fett Markierte hätte ich gern mal eine verbindliche Quelle. Ich kann das beim besten Willen nicht glauben das man das G-Sync HDR System nur für ein Panel entwickelt. Das widerspricht jeder Logik.
 

Nvidias Freesync-2-Konkurrent ist theoretisch weniger flexibel


Sorry aber die Überschrift geht gar nicht, jemand der nicht sachkundig ist würde diese im Kontext so interpretieren:

Freesync 2 stammt von Nvidia und die Technik G-Sync HDR des Mitbewerbers ist theoretisch weniger flexibel

besser wäre:

G-Sync HDR: Nvidias Gegenstück zu Freesync 2 ist theoretisch nicht so flexibel

Ich weiß das ist Erbsen zählen aber wenn mein Job daraus besteht Menschen zu informieren gehört meiner Meinung nach auch eine unmissverständliche Überschrift dazu. :schief:
 
Ist ne ziemlich steile These, was PCGH da aufstellt. Nur weil es aktuell nur ein Panel für HDR mit G-Sync gibt, warum sollte es dann nicht noch weitere geben?

Wage ich mal zu behaupten, dass das Quatsch ist und wir noch zahlreiche Panels sehen werden.
 
Das mit dem bestimmten Panel ist sicher Quatsch, selbst proprietäre Standards schneidet man doch nicht auf ein Panel zu :ugly:

Ich hatte wirklich gehofft, dass nVidia irgendwann G-Sync mal wegsterben lässt, bzw. FreeSync/Adaptive-Sync unterstützt. Wir sehen hier ein hervorragendes Beispiel des Ausnutzens von Marktdominanz. G-Sync hat mittlerweile keinerlei technische Vorteile gegenüber Adaptive-Sync mehr. Wenn es um Qualitätssicherung ginge, könnte nVidia auch einfach eine Art G-Sync Zertifikat bringen, damit dann unsinnige Sync-Spannen wie wir sie in den letzten Jahren durchaus erlebt haben nicht den unbedarften Nutzer reinlegen.

Aber momentan ist G-Sync nur eines: teuerer als die freie, standartisierte Alternative.
 
Für das fett Markierte hätte ich gern mal eine verbindliche Quelle. Ich kann das beim besten Willen nicht glauben das man das G-Sync HDR System nur für ein Panel entwickelt. Das widerspricht jeder Logik.

Eine Quellen hätte ich auch gerne, aber ich kann mir schon vorstellen, dass NV den Quatsch abzieht.
Sollte das hier stimmen:
Anscheinend stimmt das Spiel auch hier das Tone-Mapping an die G-Sync-HDR-Monitore an, sodass diese keine eigene Bearbeitung mehr vornehmen müssen. Da es zumindest vorerst nur eine mögliche Konfiguration mit G-Sync HDR geben wird, reicht bereits eine Erkennung des Monitors aus, um das Tone-Mapping korrekt einstellen zu können. Theoretisch muss der Monitor also nicht die erforderlichen Werte über den Treiber an das Spiel übermitteln.
Wäre das so ein Schwachsinn. Dann muss ja jedes Spiel die Kennzahlen aller GSync-Panels kennen und ein entsprechenden Tone-Mapping implementiert haben. Oder es lädt die aus dem Internet runter, was aber auch Bullshit wäre. Oder der Treiber hat sie implementiert.
Alles in allem: deutlich unflexibler als Freesync 2 (falls das stimmt natürlich nur). Wenn da die Infos im Monitor gespeichert sind, muss es keine Datenbank oder so geben.

Ich habe ja echt versucht, nicht den Wille zu haben, NV zu boykottieren, aber sie machen es mir echt schwer: GameWorks, 970, neuste Treiber nur mit Account, GSync, Freesync nur in Laptops, GSync HDR, Club GeForce, ...
Deswegen sind Monopole *******. Man sollte sie echt nicht unterstützen, wenn denn möglich.
 
Naja das würd ich nicht sagen.

Mein Kumpel hat alle paar jahre ein TV upgrade... das letzte diese Jahr vom Panasonic 55zoll fullHD (2008/9)Panasonic TX-P50V10

zum 65zoll HDR/4k - Panasonic TX-58DXW904 (2016)

HDR sieht dort erstens sehr gut aus ingame/Film und man sieht beim umschalten sofort einen riesen Unterschied.
(Von 4k ganz zu schweigen)


Bei TVs ist das ganz einfach recht individuell ganz unabhängig von X konkurierenden Techniken.
Man steht davor und einem gefällt das Bild...oder eben nicht.


Da ich dann immer bei ihm den PC am TV hab hab ich auch immer ganz gute Vergleichseindrücke zw. TV und monitor.
Auflösung , Leuchtkraft etc. allles besser...

Aber wer shooter spielt sollte wirklich immer die Hz Zahl über alles andre setzten.... selbst den Unterschied zwischen den 60 und 100hz hier merke ich sowas von extrem.

Hast du einen direkt Vergleich gesehen zwischen OLED und Quantum Dots? Ich finde Quantum Dots gut keine Frage aber da diese aktuell noch mit Hintergrundbeleuchtung verwendet werden sind die Schwarzwerte nicht so toll und das wirkt sich auf den Gesamteindruck aus.
 
Das mit dem bestimmten Panel ist sicher Quatsch, selbst proprietäre Standards schneidet man doch nicht auf ein Panel zu :ugly:

Ich hatte wirklich gehofft, dass nVidia irgendwann G-Sync mal wegsterben lässt, bzw. FreeSync/Adaptive-Sync unterstützt. Wir sehen hier ein hervorragendes Beispiel des Ausnutzens von Marktdominanz. G-Sync hat mittlerweile keinerlei technische Vorteile gegenüber Adaptive-Sync mehr. Wenn es um Qualitätssicherung ginge, könnte nVidia auch einfach eine Art G-Sync Zertifikat bringen, damit dann unsinnige Sync-Spannen wie wir sie in den letzten Jahren durchaus erlebt haben nicht den unbedarften Nutzer reinlegen.

Aber momentan ist G-Sync nur eines: teuerer als die freie, standartisierte Alternative.

Gibt es Freesync-Bildschirme die stufenlos 30 bis 144 Hz beherschen? Wenn nein dann ist für mich G-Sync die deutlich überlegenere Technik. Beim letzten Freesyncmonitortest den ich laß, musste man sich für eine von zwei Frequenzspannweiten entscheiden.....das find ich schonmal ein NoGo...
 
Wenn man diesen Artikel mit dem über FreeSync2 vergleicht dann enthält der FreeSync2 Artikel viele technische Informationen über FreeSync2 und neutral berichtet, während dieser GSync HDR Bericht Lobhudelei und Eigene Meinung über (theoretisch) machbare Bildschirme enthält (oder werden alle Bildschirme mit GSync 100% gleich sein?).
Ich habe den Namen gelobt, weil man hier weiß, was man erwarten kann - einen G-Sync-Monitor mit HDR. Freesync 2 suggeriert durch seine Durchnummerierung, dass Freesync (1) tot wäre. Daneben habe ich geschrieben, dass UHD, 144 Hz und vernünftiges HDR ein hübsches Paket sind - stimmt doch, oder? Auf der anderen Seite habe ich darauf hingewiesen, dass G-Sync HDR seine Schwächen hat - nämlich die sehr strikten Nvidia-Vorgaben und vermutlich die fehlende Kommunikation des erforderlichen Tone-Mappings.
@Mark Mantel:

Kann man wirklich sagen, daß DCI-P3 unterstützt werde? Der Farbraum wird nach meinem Stand jedenfalls nicht vollständig abgedeckt und IIRC war von "orientiert sich an" die Rede? Es war doch auch hier bei pcgh bereits meiner (trügerischen) Erinnerung nach so berichtet, iwie um 95 oder 97% des Farbraums.
Danke für den Hinweis. Artikel ist angepasst.
Nvidias Freesync-2-Konkurrent ist theoretisch weniger flexibel


Sorry aber die Überschrift geht gar nicht, jemand der nicht sachkundig ist würde diese im Kontext so interpretieren:

Freesync 2 stammt von Nvidia und die Technik G-Sync HDR des Mitbewerbers ist theoretisch weniger flexibel

besser wäre:

G-Sync HDR: Nvidias Gegenstück zu Freesync 2 ist theoretisch nicht so flexibel

Ich weiß das ist Erbsen zählen aber wenn mein Job daraus besteht Menschen zu informieren gehört meiner Meinung nach auch eine unmissverständliche Überschrift dazu. :schief:

In welcher Welt ist "Freesync-2-Konkurrent" missverständlich? Das Wort ist nicht umsonst durchgekoppelt - das bedeutet zu 100 % das gleiche wie "Konkurrent zu Freesync 2".
 
Für das fett Markierte hätte ich gern mal eine verbindliche Quelle. Ich kann das beim besten Willen nicht glauben das man das G-Sync HDR System nur für ein Panel entwickelt. Das widerspricht jeder Logik.

Direkt auf deine Wortwahl gerichtet, halte ich deine Aussage für falsch. Eine Logik ist, dass die Unterstützung nur eines Panels leichter umzusetzen ist und bei den erklärten Eigenschaften kann man es auch für mittelfristig befriedigend empfinden. Du hast vermutlich sogar recht mit der Aussage, aber "immer" und "nie" machen Aussagen grundsätzlich angreifbar :-)
 
Gibt es Freesync-Bildschirme die stufenlos 30 bis 144 Hz beherschen? Wenn nein dann ist für mich G-Sync die deutlich überlegenere Technik. Beim letzten Freesyncmonitortest den ich laß, musste man sich für eine von zwei Frequenzspannweiten entscheiden.....das find ich schonmal ein NoGo...

Das hat genau garnichts mit FreeSync zutun, sondern damit, dass das du wohl ein TN- mit einem IPS-Panel vergleichst.
 
Zurück