News Adaptive-Sync: VESA passt Standard an Neuentwicklungen an

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Adaptive-Sync: VESA passt Standard an Neuentwicklungen an

Die VESA passt die Zertifizierung von Adaptive-Sync an neue Entwicklungen an. Insbesondere der neue Dual Mode, der auf der CES ein Thema sein wird, ist nun in Adaptive-Sync Display Version 1.1a berücksichtigt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Adaptive-Sync: VESA passt Standard an Neuentwicklungen an
 
Kann mir einer mal genau sagen wie das jetzt Funktioniert, mein Monitor hat nur Adaptive-Sync und ist ein (Lenovo Legion Y27q-30) aber bei Nvidia Systemsteuerung , Steht G-Sync Kompatibilität

Danke
 
Kann mir einer mal genau sagen wie das jetzt Funktioniert, mein Monitor hat nur Adaptive-Sync und ist ein (Lenovo Legion Y27q-30) aber bei Nvidia Systemsteuerung , Steht G-Sync Kompatibilität

Danke
Beides basiert zu 100% auf der gleichen Grundtechnik, die damals in Notebooks rein zum Energiesparen benutzt wurde.
Nvidia hat sich als Vorreiter der variablen Refresh Rate in Spielen allerdings ausgedacht, eine neue Elektronik für die Displays zu entwickeln, die inkompatibel zu allem andren war.
Dann kam AMD mit Adaptive Sync - was später 1:1 VESA adaptive Sync wurde - und zeigte, dass der gleiche Effekt auch ohne neue Hardware ging.
Und deshalb sind mehr oder minder alle VESA adaptive Sync Monitore inzwischen als "Gsync compatible" gelistet.
 
Beides basiert zu 100% auf der gleichen Grundtechnik, die damals in Notebooks rein zum Energiesparen benutzt wurde.
Nvidia hat sich als Vorreiter der variablen Refresh Rate in Spielen allerdings ausgedacht, eine neue Elektronik für die Displays zu entwickeln, die inkompatibel zu allem andren war.
Dann kam AMD mit Adaptive Sync - was später 1:1 VESA adaptive Sync wurde - und zeigte, dass der gleiche Effekt auch ohne neue Hardware ging.
Und deshalb sind mehr oder minder alle VESA adaptive Sync Monitore inzwischen als "Gsync compatible" gelistet.

OK Danke
 
Beides basiert zu 100% auf der gleichen Grundtechnik, die damals in Notebooks rein zum Energiesparen benutzt wurde.
Nvidia hat sich als Vorreiter der variablen Refresh Rate in Spielen allerdings ausgedacht, eine neue Elektronik für die Displays zu entwickeln, die inkompatibel zu allem andren war.
Dann kam AMD mit Adaptive Sync - was später 1:1 VESA adaptive Sync wurde - und zeigte, dass der gleiche Effekt auch ohne neue Hardware ging.
Und deshalb sind mehr oder minder alle VESA adaptive Sync Monitore inzwischen als "Gsync compatible" gelistet.

Typisch einseitige Darstellung inklusive Falsch-Informationen. Muss das sein?

Nvidia hat G-Sync (basierend auf dem VESA Adaptive Sync Standard) mit einem Zusatzmodul zuerst herausgebracht, diese Monitore mit Modul gibt es auch heute noch, laufen jetzt als "G-Sync Ultimate". Das Zusatzmodul ermöglicht eine "Variable Refresh Rate" von 1-X Hertz, wogegen "normale" G-Sync-Compatible und Freesync Monitore bis ~40 Hertz herunter takten können.

AMD hat danach Freesync (auch basierend auf dem VESA Adaptive Sync Standard) herausgebracht.

Von beiden (G-Sync, Freesync) gibt es "Stufen" (Freesync Premium, G-Sync Ultimate, etc) mit unterschiedlichen Anforderungen an den Monitor. Hertz, HDR, Reaktionszeit, all das fließt mit in die Zertifikate.
 
Ändert das jetzt irgendwas an meiner 4090 oder meinem Alienware 3440*1440 aus 2019?
Nein, weshalb sollte es auch?

VESA Adaptive Sync 1.1a betrifft nur neue Monitore.
Auf Seiten der Grafikkarten sollten jedoch keine Änderungen an Hard- oder Software nötig sein, um es zu Unterstützen - mir fällt zumindest kein Grund ein, weshalb es nötig sein sollte.


Und die RTX-40 unterstützen eh nicht mal DisplayPort 2.0, also ist 2.1a aktuell für alle RTX-Nutzer auch irrelevant.
Mal sehen ob NVIDIA bei den RTX 50 dann DP 2.x liefert, oder erneut bei 1.4a bleibt.
 
Zuletzt bearbeitet:
Was sind denn 8K2K und 8K4K?

4:1 und 2:1-Format? Hab ich noch nie gesehen. Kenne 4:3, 16:9, 16:10, 21:9, 32:9. FHD, UHD ...

FHD in 16:9 sind 1920 x 1080. 4K sind doch dann 3840 x 2160 und 8K 7680 x 4320.
 
4K wird bekanntlich im allgemeinen Sprachgebrauch für UHD verwendet - 4K kann im Prinzip für jede Auflösung mit einer ungefähren Auflösung von ~4000 in der Breite genutzt werden.

8K2K dürfte demnach Dual-UHD meinen, also 7680x2160 (32:9).
8K4K wäre 7680x4320 (alias UHD-II, alias 8K-UHD). Das 4K hat man wohl einfach zur besseren Unterscheidung dazu geschrieben.

Genauso wie 4K für jede Auflösung mit einer Breite von ~4000 genutzt werden kann, kann 8K für jede Auflösung von ~8000 in der Breite genutzt werden. Demnach wäre auch Möglich:
8K2K = 8192 x 2304 und 8K4K = 8192 x 4.608px - oder auch 8K2K = 8192 x 2400 (32:10).

Man könnte hergehen und es ausrechnen, falls das jemand machen möchte. Man braucht nur die Werte von Auflösung, Farbtiefe und Bildwiederholfrequenz, die man in Bitrate umrechnet - die Formel findet man im Internet. Das dann mit dem bekannten Wert der neuen max. Bitrate von DP2.1a vergleichen.
Nur gibts auch noch die Optionen der Farbunterabtastung bzw. Display Stream Compression (DSC), womit man eine etwas höhere Auflösung oder etwas höhere Hz durch eine eigentlich zu niedrige Bitrate quetschen kann - bei (möglichst) nicht sichtbarem Bildqualitätsverlust.
 
Typisch einseitige Darstellung inklusive Falsch-Informationen. Muss das sein?
Nein.
Also mach du das bitte auch nicht.
Weil,
Das Zusatzmodul ermöglicht eine "Variable Refresh Rate" von 1-X Hertz, wogegen "normale" G-Sync-Compatible und Freesync Monitore bis ~40 Hertz herunter takten können.
Ist falsch.
Die gehen beide auf 1Hz runter indem sie Bilder mehrmals anzeigen.
AMD hat danach Freesync (auch basierend auf dem VESA Adaptive Sync Standard) herausgebracht.
Das basiert nicht darauf, es wird genau dieser benutzt bei DP.
Heisst bei AMD Freesync und bei Nvidia Gsync compatible.
Bei HDMI 2.1 dann VRR aus dem Standard.
Was komischerweise dann wieder als Gsync bezeichnet wird.
 
Nein.
Also mach du das bitte auch nicht.
Weil,

Ist falsch.
Die gehen beide auf 1Hz runter indem sie Bilder mehrmals anzeigen.

Das basiert nicht darauf, es wird genau dieser benutzt bei DP.
Heisst bei AMD Freesync und bei Nvidia Gsync compatible.
Bei HDMI 2.1 dann VRR aus dem Standard.
Was komischerweise dann wieder als Gsync bezeichnet wird.

Ich kenne die Seite und hab mit der Anleitung dort auch meine Konfiguration eingerichtet, sind aber alte Infos da von 2017.

https://www.coolblue.de/beratung/g-sync-freesync-bildschirm.html
https://www.nvidia.com/de-de/geforce/news/gfecnt/g-sync-ces-2019-announcements/
https://www.pcwelt.de/article/1203731/amd-freesync-die-verschiedenen-abstufungen-erklaert.html
https://www.displayninja.com/g-sync-compatible-vs-native-g-sync/

Aus dem letzten Link:
Another advantage of having a dedicated G-SYNC module is a wide variable refresh rate (VRR) range. All G-SYNC monitors support VRR down from 30Hz up to their maximum refresh rate.

Below 30Hz/FPS, the frame rate gets multiplied (for instance, 29FPS -> 58Hz, 14FPS -> 42Hz, etc.) in order to keep tearing at bay.

In contrast, most monitors that use Adaptive-Sync have their VRR range start at 40Hz or 48Hz. They also support frame rate multiplication via the AMD LFC (Low Framerate Compensation) technology, but only if the maximum refresh rate of a monitor is at least double the lower end of the VRR range.

So, an Adaptive-Sync/FreeSync/G-SYNC Compatible monitor with a 30-60Hz VRR range supports LFC, but a monitor with a 40-60Hz range does not.

Siehe auch hier aus Deiner Quelle:

1704914998109.png


Die Frame-Duplizierung gibt's also nicht automatisch bei G-Sync compatible und Freesync.

Mein Monitor unterstützt anscheinend LFC:
https://rog.asus.com/de/monitors/27-to-31-5-inches/rog-strix-xg279q-model/spec/

1704915420103.png


Aber LFC ist ja eher eine Notlösung. Daher schaue ich lieber >48 FPS zu erreichen damit die Range erreicht wird.
 
Zuletzt bearbeitet von einem Moderator:
Zurück