News AMD FreeSync: Neue Mindestanforderungen setzen bereits für Full HD mindestens 144 Hz voraus

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu AMD FreeSync: Neue Mindestanforderungen setzen bereits für Full HD mindestens 144 Hz voraus

AMD hat die Mindestanforderungen für seine adaptive Synchronisierungstechnologien AMD FreeSync, FreeSync Premium und FreeSync Premium Pro aktualisiert und entsprechend angehoben. Mindestens 144 Hz werden auf dem Desktop-PC vorausgesetzt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: AMD FreeSync: Neue Mindestanforderungen setzen bereits für Full HD mindestens 144 Hz voraus
 
Ähm, wie wärs denn mal , wenn sie den eigenen GPU's das Speicher hochtakten abgewöhnen bevor man solche Anforderungen stellt.
144Hz gehen zwar bei mir aber schon bei 165Hz geht der Scherz mit dem Speicher wieder los.
 
Also ich hab zwar nen 144Hz Monitor, aber ich verstehe jetzt den Sinn dahinter nicht so ganz. Was hat AMD davon topmoderne 120Hz Monitore auszugrenzen?

Ich sehe zwar einen Vorteil von 120 Hz gegenüber 60 Hz, aber da hört es bei mir schon auf. 144Hz und 120Hz sind für meine Augen quasi identisch. Auch aufgrund des Stromverbrauchs sehe ich keinen Grund auf NOCH mehr Hz zu gehen.
 
Also ich hab zwar nen 144Hz Monitor, aber ich verstehe jetzt den Sinn dahinter nicht so ganz. Was hat AMD davon topmoderne 120Hz Monitore auszugrenzen?

Ich sehe zwar einen Vorteil von 120 Hz gegenüber 60 Hz, aber da hört es bei mir schon auf. 144Hz und 120Hz sind für meine Augen quasi identisch. Auch aufgrund des Stromverbrauchs sehe ich keinen Grund auf NOCH mehr Hz zu gehen.
Welcher "topmoderne" Monitor mit FHD oder WQHD hat nur 120Hz?
 
Die sollten lieber Mal freesync Premium pro .. bzw die verkorkste HDR Implementierung fixen..

viele Monitore haben tonmapping Probleme und erreicht nicht die entsprechende Peak Helligkeit.. wärend sie auf Nvidia und Intel (die eine klassische HDR10 Pipeline benutzen) alles tutti ist.

Kann ja nicht sein das man entweder mit CRU rumspielen oder Freesync im OSD komplett deaktivieren muss um ein gutes HDR Erlebnis zu haben.

Und wofür überhaupt.. für die 3 Spiele die Freesync Premium pro tauglich sind und die Helligkeitswerte vom Monitor auslesen können so das man nicht per Hand im Menü kalibrieren muss..
 
Meine haben mehr als 120Hz. Aber mir ist es schnurz furzegal. Ich hab 72Hz eingestellt um Strom zu sparen.
Bei manchen Gaming - Servern sollen die FPS möglichst synchron zu den PC-FPS sein. Manche Server erreichen nur 60 FPS. Geforce Now soll auch nur 60 FPS bieten? Mir aber wurst.
Komme auch bei schnellen Shoutern mit 72 FPS gut aus weil ich zu oft daneben baller. Is dann eh egal.
 
Also ich hab zwar nen 144Hz Monitor, aber ich verstehe jetzt den Sinn dahinter nicht so ganz. Was hat AMD davon topmoderne 120Hz Monitore auszugrenzen?
Macht effektiv keinen Unterschied. Dürfen künftige Modelle mit <144 Hz eben nicht mehr mit FreeSync beworben werden - falls sie zugleich mit geringeren Auflösungen als UWQHD arbeiten. VESA Adaptive Sync bzw. HDMI VRR darf aber dennoch beworben werden, und das ist zu FreeSync kompatibel.
Es gibt auch bereits Jahren Monitore bei denen die Hersteller auf jegliche FreeSync bzw. G-Sync Compatible Zertifizierung verzichten. Nein, nicht nur Office-Modelle, auch viele mit >120 Hz, siehe: #1, #2

Ich verstehe aber auch nicht, weshalb nicht >=120 Hz genannt wurde, auch wenn es nur noch recht wenige Modelle damit gibt.

@JoM79: Es gibt ein paar wenige Modelle, die im letzten Jahr erschienen sind.
Davon wird bei Zweien nur VRR beworben (müsste man wohl ausprobieren ob über DP FreeSync / G-Sync nicht geht, würde mich jedoch überraschen wenn es tatsächlich nicht geht).
 
Finde ich im Hinblick auf die empfohlenen Mindest-Basis-FPS für Fake Frames nur richtig.
120Hz reicht nicht, um die von AMD und NVidia empfohlenen 55-70 Basis-FPS zuverlässig zu verdoppeln, ohne gelegentlich 120fps zu überschreiten, was u.U. zu Rucklern führen kann.
144Hz ist aus dieser Sicht dafür das sinnvolle Minimum.

Mein nächster OLED-TV wird aus diesem Grunde auch mindestens für 144Hz tauglich sein.
 
Eine gute Nachricht. Bisher bekam man bei normalem Free Sync viel Schrott. Mein Monitor hat z.B. eine Free Sync Bandbreite von 48 bis 60Hz. Besser als garnichts, aber auch nicht so wirklich hilfreich. Bei Gsync konnte man sich immer sicher sein etwas gutes zu bekommen, wenn es nun auch bei Free Sync der Fall ist, kann man das nur begrüßen.

Also ich hab zwar nen 144Hz Monitor, aber ich verstehe jetzt den Sinn dahinter nicht so ganz. Was hat AMD davon topmoderne 120Hz Monitore auszugrenzen?

Irgendwo muß man halt eben die Grenze ziehen. Darunter kommen dann die 100Hz Monitore, dann die 90Hz Monitore, dann 75Hz und schon ist man bei 60Hz. 144Hz ist eine gute Lösung, da es nur wenige Monitore darunter gibt und die Hersteller so angespornt werden mehr zu bringen.

Geforce Now soll auch nur 60 FPS bieten?

Es sind bis zu 240FPS.
 
Eine gute Nachricht. Bisher bekam man bei normalem Free Sync viel Schrott. Mein Monitor hat z.B. eine Free Sync Bandbreite von 48 bis 60Hz. Besser als garnichts, aber auch nicht so wirklich hilfreich. Bei Gsync konnte man sich immer sicher sein etwas gutes zu bekommen, wenn es nun auch bei Free Sync der Fall ist, kann man das nur begrüßen.



Irgendwo muß man halt eben die Grenze ziehen. Darunter kommen dann die 100Hz Monitore, dann die 90Hz Monitore, dann 75Hz und schon ist man bei 60Hz. 144Hz ist eine gute Lösung, da es nur wenige Monitore darunter gibt und die Hersteller so angespornt werden mehr zu bringen.



Es sind bis zu 240FPS.
Eine gute Nachricht, die Anforderungen willkürlich hochzuschrauben und Hardware auszugrenzen, die vor dem Treiberupdate noch mit FreeSync funktioniert hat? :stupid:

Das grenzt zum Beispiel jetzt auch alle aus, die einen 60Hz-Fernseher am PC verwenden, denn dort hat FreeSync vorher noch in einem Bereich von 48-60 Hz funktioniert.
 
Eine gute Nachricht, die Anforderungen willkürlich hochzuschrauben und Hardware auszugrenzen, die vor dem Treiberupdate noch mit FreeSync funktioniert hat? :stupid:

Das grenzt zum Beispiel jetzt auch alle aus, die einen 60Hz-Fernseher am PC verwenden, denn dort hat FreeSync vorher noch in einem Bereich von 48-60 Hz funktioniert.

Es geht wohl darum wann man das Ding bewerben und das Logo verwenden darf.

Ich kann mir jetzt nicht vorstellen, dass bestehende Geräte herausfliegen.
 
Finde ich schwach es auf 144HZ an zu heben, aber wenn man Kunden ausschließen möchte, bitteschon.
Gibt es bei G-Sync auch eine Untergrenze?

Wieso das? Die 48GBit/s reichen ohne Einschränkung. Wenn die Anschlüsse auf 40GBit/s begrenzt sind wird DSC benötigt bei 10-Bit Farbtiefe.

Bin jetzt von 40 Gbps ausgegangen. Bei 48 hast du natürlich Recht.

Bin da jetzt leicht verwirrt.
Wenn ich für UHD rechne, mitsamt dem Pixelüberhang und voller Farbuntertastung von 4:4:4 komme ich für 12bit RGB auf
3920 x 2293 x 36 x 144 / 1024^3 = 43.4Gb/s

Ich vermute mal 12bit4:4:4 dürfte damit nicht nativ gehen, weil die Datenrate bei HDMI 2.1 bei max. 42Gb/s liegt. 48Gb/s ist der maximale Transfer mitsamt allem drum herum, so ich das richtig verstanden habe.
Wenn ich das damit richtig berechne, dann läge mit 12bit4:4:4 die maximale unkomprimierte Frequenz bei ~139Hz

Der technische Kompromiss für 12bit wäre also, dass hier entweder DSC eingeschaltet werden muss oder die Farbuntertastung reduziert wird (Zweiteres wird aber in Spielen mit feinen Linien und Kontrastübergängen wie bsw. in Stellaris deutlich sichtbar), wenn man die 144Hz erreichen will. 10Bit4:4:4 müsste nativ funktionieren.

Allerdings haben OLEDs wiederum laut Datenblätter nur Panels die nativ maximal 10bit ausgeben können. Ausser da hätte sich in letzter Zeit etwas geändert. 12bit-Inhalte können also demnach nur über Dithering abgedeckt werden. Der optische Unterschied zwischen 10- und 12bit ist damit eigentlich mit der heutigen Technik praktisch nicht auszumachen, resp. dürfte erst mit deutlich heller peakenden Bildschirmen an Relevanz gewinnen.
Dazu kommt, dass die meisten Games mit HDR-Support nativ m.W. sowieso nur mit 8bit-HDR rumgurken und ohne Dithering entsprechende Banding-Festivals veranstalten (Ausnahmen wie augenscheinlich Mass Effect: Andromeda bestätigen da vermutlich die Regel, laut dessen Grafikmenü es darin auch einen 10- und 12Bit-Modus gibt).

Der mutmasslich grundsätzlich nötige Kompromiss hielte sich damit Alles in Allem in engen Grenzen.
 
Zurück